我正在尝试使用Bart的预先训练的摘要管道对输入文本进行摘要。但是,我注意到生成的摘要与我提供给模型以进行总结的文本完全相同。我还尝试在文本-摘要对(人工生成的摘要)上对模型进行微调,但对于新的输入文本,也会生成与输出相同的输入文本。
我希望我的摘要是给定输入文本的要点。我可以使用什么方法来解决这个问题?还有,有没有其他模型可以在生成摘要方面表现得更好?
发布于 2021-04-29 20:52:47
我在facebook的bart_base模型上也遇到了同样的问题。我尝试了其他几个模型,我发现Sam Shleifer的DistilBART模型在总结新闻文章方面做得非常好。如果你想尝试一下:
model = BartForConditionalGeneration.from_pretrained("sshleifer/distilbart-xsum-6-6")
tokenizer = BartTokenizer.from_pretrained("sshleifer/distilbart-xsum-6-6")https://stackoverflow.com/questions/66639722
复制相似问题