我想使用textsum模型来标记命名实体。因此,目标大小very非常小。在训练时,似乎没有在编码器和解码器端提供不同的单词的选项-或者有吗?请参阅Github上的code lines
if hps.mode == 'train': model = seq2seq_attention_model.Seq2SeqAttentionModel(hps, vocab, num_gpus=FLAGS.num_gpus)
发布于 2016-10-30 08:03:32
Hrishikesh我不相信有一种方法可以提供单独的way文件,但不能完全理解为什么你需要它。该单词只是提供了一种表示单词的数字方式。因此,当模型使用这些单词时,它使用这些单词的数字表示。假设完成并选择了单词的统计选项后,它只需使用vocab文件将vocab索引转换回与其相关的单词即可。我希望这有助于回答你的问题,并巩固为什么你不应该有单独的shouldn文件。这就是说,我可能没有误解你对它的需求,如果是这样的话,我道歉。
发布于 2017-08-16 06:14:56
不,没有以这种方式使用textsum的开箱即用选项。不过,我看不出有任何理由不能通过修改架构来实现这一点。如果您指出一些关于在NER中使用seq2seq和注意力模型的文献,我会很感兴趣
https://stackoverflow.com/questions/40269699
复制相似问题