首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏用户7873631的专栏

    clip-path

    200px;position: absolute;left: 0;top: 0;right: 0;bottom: 0;margin: auto; background: black; -webkit-clip-path

    60310发布于 2020-10-28
  • 来自专栏计算机视觉理论及其实现

    tf.clip_by_value( )

    tf.clip_by_value的用法:tf.clip_by_value(A, min, max):输入一个张量A,把A中的每一个元素的值都压缩在min和max之间。 A = np.array([[1,1,2,4], [3,4,8,5]]) with tf.Session() as sess: print sess.run(tf.clip_by_value

    2.9K30编辑于 2022-09-04
  • 来自专栏计算机视觉理论及其实现

    tf.clip_by_value()

    Clips tensor values to a specified min and max.tf.clip_by_value( t, clip_value_min, clip_value_max Any values less than clip_value_min are set to clip_value_min. Any values greater than clip_value_max are set to clip_value_max.Note: clip_value_min needs to be smaller ])B = tf.clip_by_value(A, clip_value_min=0, clip_value_max=3) # [[1, 3, 3],[3, 3, 3]]C = tf.clip_by_value (A, clip_value_min=0., clip_value_max=3.) # throws `TypeError`as input and clip_values are of different

    1.1K10编辑于 2022-09-03
  • 来自专栏我爱计算机视觉

    CLIP再创辉煌!西南交大&MSRA提出CLIP4Clip,进行端到端的视频文本检索!

    在本文中,作者提出了一个CLIP4Clip 模型,以端到端的方式将CLIP模型的知识转移到视频语言检索中。在本文中,作者通过实验研究了以下几个问题: 1) 图像特征是否足以用于视频文本检索? 大量实验结果表明,基于CLIPCLIP4Clip模型可以在各种视频文本检索数据集上实现SOTA结果,包括MSR-VTT、MSVC、LSMDC、ActivityNet和DiDeMo。 ▊ 1. 论文和代码地址 CLIP4Clip: An Empirical Study of CLIP for End to End Video Clip Retrieval 论文:https://arxiv.org 在本文中,作者利用预训练好的CLIP,提出了一个名为CLIP4ClipCLIP For ** video Clip ** retrieval)的模型来解决视频文本检索问题。 具体而言,CLIP4Clip构建在CLIP之上,并设计了一个相似度计算器来研究三种相似度计算方法:无参数型 、顺序型 和紧密型 。

    2.8K40发布于 2021-11-18
  • 来自专栏GiantPandaCV

    OpenAI CLIP 论文解读

    GiantPandaCV导语:视频内容主要是讲解 CLIP 这篇文章的思路,值得一看 点击小程序卡片观看视频 视频太长不看版: CLIP 训练阶段 ? CLIP 测试阶段 ? image-20210313170146896 在测试阶段,可以直接将训练好的CLIP用于其他数据集而不需要finetune。 可以看到随着变种版本的难度增大,ResNet101分类精度愈来愈差,而CLIP的表现则依然很坚挺。 通过添加标签对CLIP分类效果的影响 ? 通过这个实验说明文本编码器部分的标签文本构造对CLIP分类结果的影响非常大。 总结 CLIP提供一个如何做 zero-shot 分类的思路,且模型鲁棒性强。 基于 CLIP 可以自由定义自己的分类器,而且与现有的很多工作结合或许玩出很多花样,比如 DALL·E 中用到了 CLIP,又比如有人已经把 CLIP 和 stylegan 结合来生成图片,又或者可以和

    5.4K51发布于 2021-03-25
  • 来自专栏计算机视觉理论及其实现

    clip_gradient_norms()

    def clip_gradient_norms(gradients_to_variables, max_norm): clipped_grads_and_vars = [] for grad, var gradients_to_variables: if grad is not None: if isinstance(grad, ops.IndexedSlices): tmp = clip_ops.clip_by_norm max_norm) grad = ops.IndexedSlices(tmp, grad.indices, grad.dense_shape) else: grad = clip_ops.clip_by_norm

    1.2K20编辑于 2022-09-04
  • 来自专栏AI智韵

    CLIP-EBC:通过增强的逐块分类,CLIP能够准确计数

    此外,在EBC框架的基础上,我们探索了利用CLIP原始结构进行人群计数的潜力,并引入了CLIP-EBC(如图1所示)。 在EBC的基础上,我们提出了第一个完全基于CLIP的人群计数模型CLIP-EBC。CLIP-EBC最大限度地保留了CLIP的原始结构,展示了其不仅能够估计人群规模,还能够生成详细的分布密度图的能力。 为此,我们引入了CLIP-EBC,这是第一个完全基于CLIP的人群计数方法,并证明了CLIP可以在尽可能保留其结构的同时,准确地估计人群分布。 训练细节:我们使用CLIP [10]的权重来初始化CLIP-EBC模型。 在多个数据库上的实验展示了EBC和CLIP-EBC的有效性。在未来,我们将研究使用CLIP-EBC来计数任何物体,以充分发挥CLIP的潜力。

    72610编辑于 2024-10-22
  • 来自专栏林德熙的博客

    WPF 元素裁剪 Clip 属性

    本文介绍如何在 WPF 使用 Clip 裁剪元素 在 WPF 的 UIElement 提供了 Clip 属性,这个属性默认是空,但是如果设置了这个属性就会对元素进行裁剪 这个属性是一个 Geometry 只是可以看到两个矩形,第一个矩形比较大 对他进行圆形裁剪 public SisdecereYipuVayderyecallMawqere() { Clip 可以看到显示的是圆形 因为设置 Clip 属性是一个裁剪的窗口,只有在裁剪区域之内才可以显示 因为 Geometry 是可以做到不连续的,所以可以做出部分的透明,如裁剪两个矩形 public RectangleGeometry(new Rect(30, 30, 10, 10)), GeometryCombineMode.Union, null); Clip ---- 本文会经常更新,请阅读原文: https://lindexi.gitee.io/post/WPF-%E5%85%83%E7%B4%A0%E8%A3%81%E5%89%AA-Clip

    2K20发布于 2019-03-13
  • 来自专栏林德熙的博客

    WPF 元素裁剪 Clip 属性

    本文介绍如何在 WPF 使用 Clip 裁剪元素 在 WPF 的 UIElement 提供了 Clip 属性,这个属性默认是空,但是如果设置了这个属性就会对元素进行裁剪 这个属性是一个 Geometry 的坐标画出大小是 100 的矩形 对他裁剪,设置裁剪的是矩形裁剪 public SisdecereYipuVayderyecallMawqere() { Clip 只是可以看到两个矩形,第一个矩形比较大 对他进行圆形裁剪 public SisdecereYipuVayderyecallMawqere() { Clip = new EllipseGeometry(new Point(30, 30), 10, 10); } 可以看到显示的是圆形 因为设置 Clip 属性是一个裁剪的窗口,只有在裁剪区域之内才可以显示 RectangleGeometry(new Rect(30, 30, 10, 10)), GeometryCombineMode.Union, null); Clip

    1.4K10编辑于 2022-08-04
  • 来自专栏计算机视觉理论及其实现

    np.clip()的用法

    numpy.clip(a, a_min, a_max, out=None)Clip (limit) the values in an array.

    1.5K10编辑于 2022-09-02
  • 来自专栏前端之攻略

    canvas之clip使用 原

    clip() 将当前正在构建的路径转换为当前的裁剪路径,默认情况下,canvas有一个与它自身一样大的裁切路径(也就是没有裁切效果) <body> <canvas id="canvas" width 对下面含有渐变色的背景进行剪切成圆形 ctx.beginPath(); ctx.arc(0, 0, 60, 0, Math.PI * 2, true); ctx.clip

    93630发布于 2019-04-04
  • 来自专栏小狐狸说事

    CSS Clip-path Maker

    CSS Clip-path Maker ---- 网站介绍 可以生成具有各种不同形状的漂亮剪辑路径,非常方便。

    94620编辑于 2022-11-17
  • 来自专栏AI 新手村

    AI 新手村:CLIP

    CLIP 模型则属于判别式模型,它旨在学习数据之间的区分边界,主要用于分类和判断,但不能生成新样本。 CLIP的训练CLIP 模型由图像编码器(通常是 ViT 或 ResNet)和文本编码器(Transformer)组成,在训练这个模型的时候,图像编码器负责把一张图片映射到空间中的某一点,文本编码器负责把一段文字映射到空间中的某一点 CLIP的推理在使用 CLIP 模型的时候,我们给出几段文字和一张图片,CLIP 模型会计算图像嵌入与每一段文本嵌入在共享空间中的相似度(内积值),并输出与图像最接近的文本(即内积值最大的文本)。 例如,知名的图片网站 Unsplash 就是利用 CLIP 模型实现了其全站图片检索功能。CLIP的优缺点CLIP 模型以其快速的计算速度和对不同类型图片内容出色的泛化识别能力而著称。 CLIP 实战演示我们将选择一个本地图片文件夹,遍历目录下所有图片并通过 CLIP 建立 Embedding。然后,通过一段文本或一张图片进行检索查询,找出最相似的前 5 张图片。

    71410编辑于 2025-06-19
  • 来自专栏人工智能与演化计算成长与进阶

    np.clip截取函数

    将范围外的数强制转化为范围内的数 def clip(a, a_min, a_max, out=None): 将数组a中的所有数限定到范围a_min和a_max中,即az中所有比a_min小的数都会强制变为 是可选项,表示把强制截取后的结果放到这个数组中,但是out中的数组必须和a形状一样 Examples -------- >>> a = np.arange(10) >>> np.clip array([1, 1, 2, 3, 4, 5, 6, 7, 8, 8]) >>> a array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]) >>> np.clip 6, 6, 6]) >>> a = np.arange(10) >>> a array([0, 1, 2, 3, 4, 5, 6, 7, 8, 9]) >>> np.clip

    81610发布于 2020-08-14
  • 来自专栏我爱计算机视觉

    CLIP2Video》-腾讯PCG提出CLIP2Video,基于CLIP解决视频文本检索问题,性能SOTA!代码已开源!

    ▊写在前面 在本文中,作者提出了CLIP2Video网络,以端到端的方式将图像语言预训练模型转换为视频文本检索模型。 论文和代码地址 CLIP2Video: Mastering Video-Text Retrieval via Image CLIP 论文:https://arxiv.org/abs/2106.11097 代码:https://github.com/CryhanFang/CLIP2Video ▊ 2. 基于CLIP捕获的空间语义,本文提出了Clip2Video模型,将图片语言预训练模型转换为视频文本检索,主要通过两个模块:时间差分块(Temporal Difference Block,TDB) 和时间对齐块 对于文本表示,作者直接采用CLIP的文本编码器生成文本表示。 和CLIP一样,本文使用大小为49152的vocab BPE来将输入文本转换为token。

    2.9K40发布于 2021-11-18
  • 来自专栏DeepHub IMBA

    CLIP的升级版Alpha-CLIP:区域感知创新与精细控制

    为了增强CLIP在图像理解和编辑方面的能力,上海交通大学、复旦大学、香港中文大学、上海人工智能实验室、澳门大学以及MThreads Inc.等知名机构共同合作推出了Alpha-CLIP。 Alpha-CLIP不仅保留了CLIP的视觉识别能力,而且实现了对图像内容强调的精确控制,使其在各种下游任务中表现出色。 在注入区域感知到CLIP的过程中,论文探索了多种策略,如MaskCLIP、SAN、MaskAdaptedCLIP以及MaskQCLIP等,这些策略为Alpha-CLIP的发展做出了贡献。 Red-Circle和FGVP通过巧妙地使用圆圈或掩模轮廓引导CLIP的注意力。然而,这些方法有时会过于依赖CLIP的预训练数据集,可能引入潜在的域差异。 在零样本实验中,Alpha-CLIP取代了CLIP,取得了在区域文本理解方面具有竞争力的结果。

    70410编辑于 2023-12-13
  • 来自专栏大模型成长之路

    【大模型学习 | CLIP 原理&实现】

    为了解决这一问题,CLIP 提出了一个新的预训练框架:利用网络上现成的大规模图文对(如标题+图像)作为监督信号,将图像与自然语言描述进行匹配,从而在无需特定分类标签的情况下,学习具有通用性的视觉表征。 识别图像的类别会比训练一个词袋模型慢三倍);这两种方法来学习识别图像都有一个相同点:预测图像的准确文字; 作者提出一种图文匹配的更简单的代理任务,而不是精确预测每个单词;给定 $N \times N$ 的图文对,在 CLIP 作者并没有发现线性映射和非线性映射的差别,并推测非线性映射在一些纯自监督任务中(如 SimCLR、MoCo)可能会适应图像中更细节的特征,形成一种“共适应(co-adaptation)”,但在 CLIP ") processor = CLIPProcessor.from_pretrained("openai/clip-vit-large-patch14") url = "http://images.cocodataset.org ("openai/clip-vit-base-patch32") # 2.

    1.7K21编辑于 2025-07-15
  • 来自专栏个人博客

    clip_interrogator教程 - plus studio

    clip_interrogator教程 文字生成图片是近年来多模态和大模型研究的热门方向,openai提出的CLIP提供了一个方法建立起了图片和文字的联系,但是只能做到给定一张图片选择给定文本语义最相近的那一个 受限于clip-interrogator 等于没有的文档,就有了这篇文章来写一些怎么使用clip-interrogator。 clip-interrogator项目地址GitHub 在线体验huggingface-clip-interrogator huggingface-clip-interrogator2 clip-interrogator 接下来会根据四种模式,从data文件夹下的txt文件中组合出文字生成图片常用的prompt,通过CLIP进行编码,然后将图片也用CLIP进行编码,计算出相似度最大的一组prompt,和BILP生成的prompt 安装 pip install clip-interrogator==0.5.4 如果需要BLIP2最新的WIP支持,运行 pip install clip-interrogator==0.6.0 使用

    1.1K10编辑于 2024-02-28
  • 来自专栏给永远比拿愉快

    GIS空间分析之Clip

    文章目录 开篇 案例介绍 代码展示 方法总结 开篇 接着上篇《GIS空间分析之Buffer》之后,这篇来介绍矢量数据的裁剪(Clip)。 在上篇《GIS空间分析之Buffer》中我们是使用了Geometry类的Buffer()方法建立缓冲区的,而本篇中我们需要使用Layer图层类的Clip()方法进行矢量数据裁切。 in_lyr.GetSpatialRef(), in_lyr.GetGeomType()) # 开始进行裁剪 in_lyr.Clip 使用读取被裁剪数据图层的Clip()函数进行裁剪,改函数传入两个参数,分别是方法图层(Method Layer)以及输出结果图层(Result Layer)。

    1.3K20发布于 2020-06-16
  • 来自专栏用户7873631的专栏

    详解:44 background-clip

    DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <title>background-clip</title> <link background:url(images/king.jpg) no-repeat pink; padding:30px; margin:20px; } .box1{ background-clip :border-box;/*border以外的部分裁剪*/ } .box2{ background-clip:padding-box;//padding以外的 } .box3{ background-clip:content-box; } </style> </head> <body>

    box1
    <div class="box2

    63420发布于 2020-10-28
领券