首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >基于卷积神经网络的语言翻译

基于卷积神经网络的语言翻译
EN

Data Science用户
提问于 2020-02-28 13:39:36
回答 2查看 926关注 0票数 1

许多语言翻译神经网络的例子:

猫坐在“-> 模型 ->”的垫子上。

使用RNN,特别是LSTM。例如,参见句子语言的神经网络翻译,具有简单的层次结构(如果可能的话)关于Keras中的序列对序列学习的十分钟介绍

是否有(不太复杂)只使用CNN而没有RNN/LSTM?

进行语言翻译的尝试?

你会在Keras有一个例子吗?

EN

回答 2

Data Science用户

发布于 2020-02-28 14:17:41

我刚在谷歌上搜索:

  • 基于Gehring等人、链接的神经机器转换卷积编码器模型
  • 卷积序列到序列学习,由Gehring等人著。链接
  • 普适注意力: Elbayad等人的二维卷积神经网络用于序列到序列预测。链接

我在GitHub上找到的所有实现都是在PyTorch中实现的。我并不奇怪我没有发现什么:CNN在NLP中的应用是有趣的,但他们从来没有超过RNN。随着注意力模型的出现,特别是变压器的出现,这类模型还没有得到进一步的发展。事实上,我联系过你的最新论文是2018年的--也就是NLP速度的冰河时代。

如果您真的想深入了解卷积NMTs这个主题,我建议您检查可用的基于火炬的代码,并尝试在Tensorflow/Keras中复制。这是一项艰苦的工作,但仍然是一种奇特的模式。祝好运!

票数 3
EN

Data Science用户

发布于 2020-03-08 07:17:25

CNN和RNN有着不同的体系结构,用来解决不同的问题。

图像有很多像素,因此有很多特征。减少一些功能对图像的兴趣没有太大的影响。CNN的设计是为了减少这些特征。

NLP是由上下文驱动的。句子中的词越远,它对当前词的语境/意义的意义就越小。RNNs/LSTM/Transformers用于根据与当前单词的距离来维持该内存。因此,这些体系结构更适合NLP类型的场景。注意力只是通过把注意力集中在一些特定的单词上来帮助达到同样的目标(当然,注意力也可以和CNN一起使用)。

现在,最初的问题是,CNN是否可以用于RNN。是的,但是在这种情况下,你必须根据你想要理解/翻译的句子来控制你自己的记忆(以CNN的步幅/窗口大小等形式)。

简单地说,RNN只是比CNN更好地解决了这个问题,所以社区付出了更多的努力。

票数 0
EN
页面原文内容由Data Science提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://datascience.stackexchange.com/questions/68862

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档