首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏深度学习自然语言处理

    【CNN】多角度理解CNN

    通过 zero-padding 保持原尺寸 注意到我们以上是从 3x3 矩阵变成了 2x2, ? 但是通过 zero-padding 我们可以得到 3x3 结果, ? 具体实现为, ?

    95220发布于 2020-03-04
  • 来自专栏NewBeeNLP

    多角度理解CNN

    通过 zero-padding 保持原尺寸 注意到我们以上是从 3x3 矩阵变成了 2x2, ? 但是通过 zero-padding 我们可以得到 3x3 结果, ? 具体实现为, ?

    46740发布于 2020-08-26
  • 来自专栏AIWalker

    ​PVT重磅升级:三点改进,性能大幅提升

    标题&作者团队 本文是南京大学&港大&南理工&商汤团队针对PVT的升级,针对PVT存在的不足提出了三点改进(1)采用卷积提取局部连续特征;(2)带zero-padding 的重叠块嵌入提取位置信息编码; 在本文工作中,我们在PVT(后称PVTv1)的基础上引入了如下三个改进得到了PVTv2: 采用卷积提取局部连续特征; 带zero-padding的位置编码; 带均值池化的线性复杂度的注意力层。 在这里,我们采用带zero-padding的卷积实现重叠块嵌入。具体来说,给定尺寸为 的输入,我们采用stride=S,核尺寸为 ,padding为S-1的卷积进行处理,输出尺寸为 。 Convolutional Feed-Forward 受启发于LocalViT、CPVT,我们移除了定长位置编码,将zero-padding位置编码引入到PVT,见上图b。

    1.5K10发布于 2021-07-05
  • 来自专栏机器学习爱好者社区

    思考了很久才写下了这篇:深度神经网络

    Zero-Padding Zero-Padding是一种影响输出层构建的方法,思路比较简单:把输入层边界外围用0填充,当我们希望输出空间维度和输入空间维度大小一样时可以用此方法,例如下图:当输入为4* 4,卷积核为3*3时,利用Zero-Padding可以让输出矩阵也是4*4。 Zero-Padding一方面让你的网络结构设计更灵活,一方面还可以保留边界信息,不至于随着卷积的过程信息衰减的太快。

    53910发布于 2020-03-03
  • 来自专栏计算机视觉理论及其实现

    keras.layers

    UpSampling3D: Upsampling layer for 3D inputs. class Wrapper: Abstract wrapper base class. class ZeroPadding1D: Zero-padding layer for 1D input (e.g. temporal sequence). class ZeroPadding2D: Zero-padding layer for 2D input (e.g . picture). class ZeroPadding3D: Zero-padding layer for 3D data (spatial or spatio-temporal).

    36510编辑于 2022-06-05
  • 来自专栏算法channel

    BAT面试题24:什么是卷积?

    03 — 多核做卷积操作 如果用多个卷积核进行卷积操作,应该是怎样的呢,为了表达方便,分享一个多核卷积操作的动画演示,图中的输入为 7 × 7 × 3,可以看到还做了一层零填充(Zero-padding index.html 04 — 总结 以上这些就是CNN的卷积部分,它应用了两种技术: 局部连接 权值共享 减少了权重参数,具体这个操作为卷积操作,这个操作有3个重要的超参数: 步长(Stride) 零填充(Zero-padding

    1.1K20发布于 2018-12-25
  • 来自专栏机器学习算法与Python学习

    CNN之卷积层

    填充值-zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除。 ? zero-padding=1。 然后分别以两个滤波器filter为轴滑动数组进行卷积计算,得到两组不同的结果。

    90770发布于 2018-04-08
  • 来自专栏全栈程序员必看

    卷积与转置卷积

    ,可以视作传统卷积操作的一种“逆向”传递过程;并且,转置卷积受“正向”卷积的参数约束,即步长stride和零填充(zero-padding)。

    99930编辑于 2022-06-24
  • 来自专栏mathor

    CS231n笔记:通俗理解CNN

    同时代表滤波器个数 步长stride:决定滑动多少步可以到边缘 填充值zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除 从图中可以看到: 有两个神经元,即两个滤波器,depth=2 数据窗口每次移动2个步长,取3*3的局部数据,即stride=2 zero-padding=1 然后分别以两个滤波器filter为轴滑动数组进行卷积计算

    97810发布于 2019-12-30
  • 来自专栏深度学习自然语言处理

    Highway Networks

    需要注意的是x,y, H, T的维度必须一致,要想保证其维度一致,可以采用sub-sampling或者zero-padding策略,也可以使用普通的线性层改变维度,使其一致。 也可以采用zero-padding的策略保证维度一致 ? 维度一致之后我们就可以根据我们的公式来写代码了: ?

    1.8K80发布于 2018-04-10
  • 来自专栏计算机视觉

    详细介绍卷积神经网络(CNN)的原理 !!

    填充值zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑到末尾位置,通俗地讲就是为了总长能被步长整除。 zero-padding = 1 为什么要进行数据填充?

    75910编辑于 2024-03-19
  • 来自专栏光城(guangcity)

    Assignment2之PyTorch实践

    卷积架构如下: A convolutional layer (with bias) with channel_1 filters, each with shape KW1 x KH1, and zero-padding nonlinearity A convolutional layer (with bias) with channel_2 filters, each with shape KW2 x KH2, and zero-padding 这个注释也给出了,看本节的注释如下: Convolutional layer (with bias) with 32 5x5 filters, with zero-padding of 2 ReLU Convolutional layer (with bias) with 16 3x3 filters, with zero-padding of 1 ReLU Fully-connected layer (with bias)

    98530发布于 2019-09-20
  • 来自专栏机器学习AI算法工程

    一文搞懂卷积神经网络(CNN)的原理(超详细)

    填充值zero-padding:在外围边缘补充若干圈0,方便从初始位置以步长为单位可以刚好滑倒末尾位置,通俗地讲就是为了总长能被步长整除。 • zero-padding=1 。

    32K611编辑于 2024-02-26
  • 来自专栏算法码上来

    搞懂 Vision Transformer 原理和代码,看这篇技术综述就够了(四)

    所以这种办法用一句话概括就是: PEG的卷积部分以zero-padding作为参考点,以卷积操作提取相对位置信息,借助卷积得到适用于Transformer的可变长度的位置编码。 图26:在插入位置为-1时扩大感受野 把3×3卷积扩大为27×27,并使用13的zero-padding,扩大感受野后,在插入位置为-1时得到了与插入位置为0时相似的性能。 Complexity 对比实验3:Padding的作用 为了探索zero-padding的作用,作者将它去掉之后再看CPVT模型的性能,降为了70.5%。 原因是zero-padding起到定位绝对位置的作用。它能暗示出图像的哪些部分是中间,哪些部分是边缘。这个实验也侧面证明了绝对位置编码的作用。 ? 即使只使用卷积层而不学习它,那么通过zero-padding也可以把位置信息融入Transformer里面。 ?

    4.5K20发布于 2021-04-08
  • 来自专栏NewBeeNLP

    MoE训练论文解读之Megablocks:打破动态路由限制

    用户必须在计算中选择drop tokens或zero-padding,前者影响模型效果,后者浪费计算资源。这种限制导致模型质量和硬件效率之间存在某种权衡,导致调参困难。 1.2 传统MoE实现的问题 动态路由限制让每个专家计算量一致引入了模型质量和硬件效率之间的权衡,因为用户必须决定是丢弃token损失精度还是zero-padding浪费计算和内存资源。 Megablocks就是想打破这种限制,让没有token drop且没有zero-padding开销,从而摈弃了loss balance和expert capacity限制。 如果想硬凑成Grouped GEMM就需要zero-padding或者截断(drop tokens)。

    2.8K30编辑于 2023-11-08
  • 来自专栏全栈程序员必看

    torch.nn.Conv1d及一维卷积详解[通俗易懂]

    只需要指定卷积方向的大小(因为是一维的) kernel_size – Size of the convolving kernel stride – Stride of the convolution padding – Zero-padding

    13.1K20编辑于 2022-07-29
  • 不止补帧,更能补世界!港中文&快手可灵最新VideoCanvas实现真正任意时空视频补全

    进一步引入混合条件策略:Spatial Zero-Padding 和 Temporal RoPE Interpolation。 空间层面上,不同形状与位置的局部patch难以统一处理,模型对零填充(zero-padding)输入不具鲁棒性。 设计一种混合式条件编码策略(Hybrid Conditioning Strategy),将空间与时间控制解耦: 空间控制:通过零填充(zero-padding)在VAE隐空间中定位任意形状patch; 还提出了一种结合空间零填充(Spatial Zero-Padding)与时间 RoPE 插值(Temporal RoPE Interpolation)的混合条件策略,从而通过高效的 DiT 微调,在冻结的

    36610编辑于 2025-11-17
  • 来自专栏全栈程序员必看

    详解卷积神经网络(CNN)

    都是权重和输入的点积,然后加上偏置,这点与普通神经网络是一样的,如下图所示: 空间排列(Spatial arrangement) 一个输出单元的大小有以下三个量控制:depth, stride 和 zero-padding 补零(zero-padding) : 我们可以通过在输入单元周围补零来改变输入单元整体大小,从而控制输出单元的空间大小。 我们先定义几个符号: W W : 输入单元的大小(宽或高) F F : 感受野(receptive field) S S : 步幅(stride) P P : 补零(zero-padding 如果池化层的输入单元大小不是二的整数倍,一般采取边缘补零(zero-padding)的方式补成2的倍数,然后再池化。

    1.4K20编辑于 2022-06-25
  • 来自专栏算法channel

    深度学习|卷积神经网络(CNN)介绍(前篇)

    06 — 多核做卷积操作 如果用多个卷积核进行卷积操作,应该是怎样的呢,为了表达方便,分享一个多核卷积操作的动画演示,图中的输入为 7 × 7 × 3,可以看到还做了一层零填充(Zero-padding index.html 07 — 总结 以上这些就是CNN的卷积部分,它应用了两种技术: 局部连接 权值共享 减少了权重参数,具体这个操作为卷积操作,这个操作有3个重要的超参数: 步长(Stride) 零填充(Zero-padding

    1.6K90发布于 2018-04-02
  • 来自专栏全栈程序员必看

    matlab中wavedec2,说说wavedec2函数[通俗易懂]

    coefficients(N-i+2) for i = 2, …N+1 and S(N+2,:) = size(X) Examples% The current extension mode is zero-padding

    84830编辑于 2022-07-02
领券