许多语言翻译神经网络的例子:
猫坐在“-> 模型 ->”的垫子上。
使用RNN,特别是LSTM。例如,参见句子语言的神经网络翻译,具有简单的层次结构(如果可能的话)和关于Keras中的序列对序列学习的十分钟介绍。
进行语言翻译的尝试?
你会在Keras有一个例子吗?
发布于 2020-02-28 14:17:41
我刚在谷歌上搜索:
我在GitHub上找到的所有实现都是在PyTorch中实现的。我并不奇怪我没有发现什么:CNN在NLP中的应用是有趣的,但他们从来没有超过RNN。随着注意力模型的出现,特别是变压器的出现,这类模型还没有得到进一步的发展。事实上,我联系过你的最新论文是2018年的--也就是NLP速度的冰河时代。
如果您真的想深入了解卷积NMTs这个主题,我建议您检查可用的基于火炬的代码,并尝试在Tensorflow/Keras中复制。这是一项艰苦的工作,但仍然是一种奇特的模式。祝好运!
发布于 2020-03-08 07:17:25
CNN和RNN有着不同的体系结构,用来解决不同的问题。
图像有很多像素,因此有很多特征。减少一些功能对图像的兴趣没有太大的影响。CNN的设计是为了减少这些特征。
NLP是由上下文驱动的。句子中的词越远,它对当前词的语境/意义的意义就越小。RNNs/LSTM/Transformers用于根据与当前单词的距离来维持该内存。因此,这些体系结构更适合NLP类型的场景。注意力只是通过把注意力集中在一些特定的单词上来帮助达到同样的目标(当然,注意力也可以和CNN一起使用)。
现在,最初的问题是,CNN是否可以用于RNN。是的,但是在这种情况下,你必须根据你想要理解/翻译的句子来控制你自己的记忆(以CNN的步幅/窗口大小等形式)。
简单地说,RNN只是比CNN更好地解决了这个问题,所以社区付出了更多的努力。
https://datascience.stackexchange.com/questions/68862
复制相似问题