首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >为什么在某些变压器网络中仍然使用卷积进行语音增强?

为什么在某些变压器网络中仍然使用卷积进行语音增强?
EN

Data Science用户
提问于 2021-04-14 01:47:43
回答 1查看 80关注 0票数 1

所以我在注意是你所需要的上读到,变形金刚完全消除了重复和卷积的需要。但是,我已经看到一些TNN(如SepFormerDPTNetTSTNN)仍然使用卷积。有什么特别的原因吗?这不违背变形金刚的宗旨吗?

EN

回答 1

Data Science用户

回答已采纳

发布于 2021-04-14 17:58:12

我们在缩聚纸中找到了一些理由:

  • 卷积在检测细粒度模式方面优于Transformers :虽然Transformers擅长建模远程全局上下文,但它们提取细粒度本地特征模式的能力较低。另一方面,卷积神经网络(CNNs)利用局部信息,作为实际的视觉计算块。
  • 它们结合在一起,变压器和卷积比单独工作更好:最近的工作表明,将卷积和自我注意结合起来比单独使用它们( 14 )更好。同时,他们能够学习定位的本地特性,并使用基于内容的全球交互。
票数 2
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/93038

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档