首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏SnailTyan

    CRNN论文翻译——中英文对照

    声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! Long-Short Term Memory [18, 11] (LSTM) is a type of RNN unit that is specially designed to address this 长短时记忆[18,11](LSTM)是一种专门设计用于解决这个问题的RNN单元。LSTM(图3所示)由一个存储单元和三个多重门组成,即输入,输出和遗忘门。 In BigLearn, NIPS Workshop, 2011. 6 [11] F. A. Gers, N. N. Schraudolph, and J. Schmidhuber. Proceed- ings of the IEEE, 86(11):2278–2324, 1998. 1 [27] S. M. Lucas, A. Panaretos, L. Sosa, A.

    2.5K00发布于 2017-12-28
  • 来自专栏怪兽怪秀

    机械图纸常用术语英语对照翻译

    对照翻译 ###英文图纸标题栏的一些资料 英文工程图纸的右下边是标题栏(相当于我们的标题栏和部分技术要求),其中有图纸名称(TILE)设计者(DRAWN)审查者(CHECKED)材料(MATERIAL 1° 角度公差±1° 4)DIMS TOLERANCE±0.1 未注尺寸公差±0.1 5)SURFACE FINISH 3.2 UNLESS STATED 未注粗糙度3.2 ###机械图纸常用术语英语对照翻译 参考值 2.5" BSP 2.5” 圆锥管螺纹 2.5" BSPT HEXAGON 2.5” 六角圆锥管螺纹(即对丝) 30x2.5 FLAT BAR 30X2.5 扁钢 TYP 2 POSNS 2处 11 TOTAL COILS APROX.9 WORKING COILS APROX.RIGHT HAND WOUND ONLY,END COILS SQUARE TO TOUCH 总圈数约11圈;工作圈数约

    5.2K20编辑于 2022-09-20
  • 来自专栏SnailTyan

    Batch Normalization论文翻译——中英文对照

    考虑一个激活函数为g(x)=11+exp(−x)g(x) = \frac{1}{1+\exp(-x)}的层,uu是层输入,权重矩阵WW和偏置向量bb是要学习的层参数,g(x)=11+exp(−x)g(x The distributions of values of any x̂ \hat x has the expected value of 00 and the variance of 11, as 只要每个小批量的元素从相同的分布中进行采样,如果我们忽略ϵ\epsilon,那么任何x̂ \hat x值的分布都具有期望为00,方差为11。 BN-x5-Sigmoid:类似于BN-x5,但使用sigmoud非线性g(t)=11+exp(−x)g(t)=\frac{1}{1+\exp(-x)}来代替ReLU。 Proceedings of the IEEE, 86(11):2278–2324, November 1998a.

    1.4K10发布于 2017-12-28
  • 来自专栏SnailTyan

    Deformable Convolutional Networks论文翻译——中英文对照

    我们的方法与空间变换网络[26]和可变形部件模型[11]具有类似的高层精神。它们都有内部的转换参数,纯粹从数据中学习这些参数。 可变形部件模型(DPM)[11]。可变形RoI池化与DPM类似,因为两种方法都可以学习目标部件的空间变形,以最大化分类得分。由于不考虑部件之间的空间关系,所以可变形RoI池化更简单。 11\%, 13%13\%, and 12%12\% relatively higher than their plain-ConvNets counterparts respectively. 11\%,13%13\%和12%12\%。 IJCV, 2010. 7 [11] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan.

    1.6K00发布于 2017-12-28
  • 来自专栏SnailTyan

    Squeeze-and-Excitation Networks论文翻译——中英文对照

    跨通道相关性通常被映射为新的特征组合,或者独立的空间结构[6,18],或者联合使用标准卷积滤波器[22]和1×11\times 1卷积,然而大部分工作的目标是集中在减少模型和计算复杂度上面。 它通常结合门功能(例如softmax或sigmoid)和序列技术来实现[11,37]。最近的研究表明,它适用于像图像标题[4,44]和口头阅读[7]等任务,其中利用它来有效地汇集多模态数据。 In ECCV, 2016. [11] S. Hochreiter and J. Schmidhuber. Long short-term memory. 更多设计和训练差异(除了SE块的使用之外)如下:(a)对于每个瓶颈构建块,首先1×11\times 1卷积通道的数量减半,以性能下降最小的方式降低网络的计算成本。 (c)步长为2的1×11\times 1卷积的下采样投影被替换步长为2的3×33\times 3卷积以保留信息。(d)在分类器层之前插入一个丢弃层(丢弃比为0.2)以防止过拟合。

    1.6K00发布于 2017-12-28
  • 来自专栏SnailTyan

    Single Shot MultiBox Detector论文翻译——中英文对照

    SSD: Single Shot MultiBox Detector Abstract We present a method for detecting objects in images usin

    1.4K00发布于 2017-12-28
  • 来自专栏SnailTyan

    Going Deeper with Convolutions——GoogLeNet论文翻译——中英文对照

    声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! ConvNets have traditionally used random and sparse connection tables in the feature dimensions since [11 为了打破对称性,提高学习水平,从论文[11]开始,ConvNets习惯上在特征维度使用随机的稀疏连接表,然而为了进一步优化并行计算,论文[9]中趋向于变回全连接。目前最新的计算机视觉架构有统一的结构。 Neural Comput., 1(4):541–551, Dec. 1989. [11] Y. LeCun, L. Bottou, Y. Bengio, and P. Haffner. Proceedings of the IEEE, 86(11):2278–2324, 1998. [12] M. Lin, Q. Chen, and S. Yan.

    1.4K00发布于 2017-12-28
  • 来自专栏SnailTyan

    Inception-V3论文翻译——中英文对照

    相比之下,将3×3卷积分解为两个2×2卷积表示仅节省了11%的计算量。 ? 图3。替换3×3卷积的Mini网络。网络的更低层由带有3个输出单元的3×1构成。 实际上,如果发生这种情况,则一个q(k)q(k)将接近11,而所有其它的将会接近00。 步长为11,大小为151×151151\times 151的感受野和最大池化。 3. 步长为11,大小为79×7979\times 79的感受野和第一层之后没有池化。 11. Accessed: 2015-11-05. [22] A. Toshev and C. Szegedy.

    2K00发布于 2017-12-28
  • 来自专栏SnailTyan

    U-Net - Convolutional Networks 论文翻译——中英文对照

    声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation U-Net: Convolutional Networks for More recent approaches [11,4] proposed a classifier output that takes into account the features from 许多最近的方法[11,4]提出了一种分类器输出,其考虑了来自多个层的特征。同时具有良好的定位和上下文的使用是可能的。

    5.6K51发布于 2020-04-24
  • 来自专栏SnailTyan

    YOLO,You Only Look Once论文翻译——中英文对照

    Instead of the inception modules used by GoogLeNet, we simply use 1×11 \times 1 reduction layers followed Alternating 1×11 \times 1 convolutional layers reduce the features space from preceding layers. 我们只使用1×11 \times 1降维层,后面是3×33 \times 3卷积层,这与Lin等人[22]类似,而不是GoogLeNet使用的Inception模块。完整的网络如图3所示。 ? 交替1×11 \times 1卷积层减少了前面层的特征空间。 Alternating 1×11 \times 1 convolutional layers reduce the features space from preceding layers.

    2K00发布于 2017-12-28
  • 来自专栏明年我18

    翻译)LearnVSXNow! #11- 测试package

    toolwindow 10: BaseMock uiShellService = UIShellServiceMock.GetUiShellInstanceCreateToolWin(); 1111行把SVsUIShell的mock对象加到了可用的服务中。

    1.2K10发布于 2019-09-18
  • 来自专栏SnailTyan

    ImageNet Classification with Deep Convolutional Neural Networks——AlexNet论文翻译——中英文对照

    卷积神经网络(CNNs)构成了一个这样的模型[16, 11, 13, 18, 15, 22, 26]。 The first convolutional layer filters the 224 × 224 × 3 input image with 96 kernels of size 11 × 11 × 第1卷积层使用96个核对224 × 224 × 3的输入图像进行滤波,核大小为11 × 11 × 3,步长是4个像素(核映射中相邻神经元感受野中心之间的距离)。 Figure 3: 96 convolutional kernels of size 11×11×3 learned by the first convolutional layer on the 224 图3:第一卷积层在224×224×3的输入图像上学习到的大小为11×11×3的96个卷积核。上面的48个核是在GPU 1上学习到的而下面的48个卷积核是在GPU 2上学习到的。

    1.4K91发布于 2017-12-29
  • 来自专栏SnailTyan

    ESRGAN - Enhanced Super-Resolution Generative Adversarial Networks论文翻译——中英文对照

    文章作者:Tyan 声明:作者翻译论文仅为学习,如有侵权请联系作者删除博文,谢谢! 翻译论文汇总:https://github.com/SnailTyan/deep-learning-papers-translation ESRGAN: Enhanced Super-Resolution 各种网络架构设计和训练策略持续地改善SR性能,尤其是峰值信噪比(PSNR)的值[5,6,7,1,8,9,10,11,12]。 基于观测,更多的层和连接总是可以提升性能[20,11,12],与SRGAN中的原始残差块相比,提出的RRDB采用了更深更复杂的架构。 然而,我们的RRDB与[36]的不同在于我们在主路径中使用了如[11]的密集块[34],受益于密集连接其网络容量变得更高。 ?

    1.5K40发布于 2020-05-27
  • 来自专栏Guangdong Qi

    iOS 11 更大的导航 (官方翻译版)

    导航栏 导航栏出现在应用程序屏幕顶部的状态栏下方,并可以通过一系列分层屏幕进行导航。当显示新屏幕时,通常标有前一屏幕标题的后退按钮出现在栏的左侧。有时,导航栏的右侧包含一个控件,如编辑或完成按钮,用于

    4.3K30发布于 2018-05-24
  • 来自专栏勇哥编程游记

    推荐一个双语对照的 PDF 翻译工具的开源项目:PDFMathTranslate

    今天给大家推荐一个双语对照的 PDF 翻译工具的开源项目:PDFMathTranslate 。 项目介绍:基于 AI 完整保留排版的 PDF 文档全文双语翻译,支持 Google/DeepL/Ollama/OpenAI 等服务,提供 CLI/GUI/Docker 。 布局分析和 PDF 指令流分析实现对文档排版的完整保留 ;保留行内/行间公式和图表样式,对 Latex 文献进行特殊优化;保留文档可索引目录结构 ;支持 Google、DeepL 和 OpenAI 等多种翻译服务 接下来,选择翻译服务 Google、Bing、zhipu、Tentcent 等和翻译方向(英文转中文),最后点击翻译按钮即可。 ;2、调用翻译服务 Google 、智普、Bing、DeepL、OpenAI 等开放平台的服务 ;3、将数据流整合在一起并输出到目标 PDF 。

    1.1K10编辑于 2025-01-04
  • 来自专栏勇哥编程游记

    推荐一个双语对照的 PDF 翻译项目:PDFMathTranslate

    今天给大家推荐一个双语对照的 PDF 翻译项目:PDFMathTranslate 。 项目地址: https://github.com/Byaidu/PDFMathTranslate 项目介绍: 基于 AI 完整保留排版的 PDF 文档全文双语翻译,支持 Google/DeepL/Ollama PDF 指令流分析实现对文档排版的完整保留 ; 保留行内/行间公式和图表样式,对 Latex 文献进行特殊优化; 保留文档可索引目录结构 ; 支持 Google、DeepL 和 OpenAI 等多种翻译服务 且小于 3.12 ; 2、安装此程序 ; pip install pdf2zh 3、打开 GUI 界面 , 访问:http://localhost:7860/ pdf2zh -i 4、上传文件并翻译 接下来,选择翻译服务 Google、Bing、zhipu、Tentcent 等和翻译方向(英文转中文), 最后点击翻译按钮即可。

    66710编辑于 2025-01-08
  • 来自专栏热爱编程的证据

    C语言每日一题(11) 密码翻译

    小猴略显神通,用魔法得知了此门的密码,是一个由字母组成的字符串,可是密码盘上只能输入数字啊,后经小猴再次魔法得知,妖魔有一套转换规则,将这个字符串中的大写字母提取出来,按照密码字典中字母和数字的对照表,

    35310编辑于 2024-01-23
  • 来自专栏全栈程序员必看

    Keycode对照表(键码对照表)

    / 111 功能键键码值(keyCode) 按键 键码 按键 键码 F1 112 F7 118 F2 113 F8 119 F3 114 F9 120 F4 115 F10 121 F5 116 F11

    11.6K30发布于 2021-10-28
  • 来自专栏CSDNToQQCode

    keycode对照表(键码对照表)

    111  功能键键码值(keyCode) 按键 键码 按键 键码 F1 112 F7 118 F2 113 F8 119 F3 114 F9 120 F4 115 F10 121 F5 116 F11

    2.8K10编辑于 2022-11-29
  • 来自专栏SnailTyan

    Very Deep Convolutional Networks for Large-Scale Image Recognition—VGG论文翻译—中英文对照

    所有配置都遵循2.1节提出的通用设计,并且仅是深度不同:从网络A中的11个加权层(8个卷积层和3个FC层)到网络E中的19个加权层(16个卷积层和3个FC层)。 Rather than using relatively large receptive fields in the first conv. layers (e.g. 11 × 11 with stride 不是在第一卷积层中使用相对较大的感受野(例如,在(Krizhevsky等人,2012)中的11×11,步长为4,或在(Zeiler&Fergus,2013;Sermanet等,2014)中的7×7,步长为 Goodfellow等人(2014)在街道号识别任务中采用深层ConvNets(11个权重层),显示出增加的深度导致了更好的性能。 第二,我们观察到分类误差随着ConvNet深度的增加而减小:从A中的11层到E中的19层。值得注意的是,尽管深度相同,配置C(包含三个1×1卷积层)比在整个网络层中使用3×3卷积的配置D更差。

    1.1K00发布于 2017-12-28
领券