我目前正在使用Tensorflow Seq2seq模型,试图实现情感分析。我的想法是给编码器以IMDB注释,解码器用Pad或Go,目标用neg/pos。我的大部分代码与seq2seq翻译的示例非常相似。但我得到的结果很奇怪。对于每一批,结果要么是全部neg,要么是所有pos。
编码器输入:我被钩住了几乎是immediately.padpad 译码器输入:pad “目标: pos”
由于这个结果非常特殊,我想知道是否有人知道什么会导致这类事情?
发布于 2016-04-16 19:02:00
我建议尝试使用一种更简单的架构- RNN或CNN编码器,它提供给逻辑分类器。这种架构在情感分析(amazon评论、yelp评论等)上显示了非常好的结果。
对于这类模型的示例,您可以对单词和字符进行请看这里 --各种编码器(LSTM或卷积)。
https://stackoverflow.com/questions/36666358
复制相似问题