首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在PretrainedTransformerEmbedder中使用Bart?

如何在PretrainedTransformerEmbedder中使用Bart?
EN

Stack Overflow用户
提问于 2020-12-11 11:36:37
回答 1查看 66关注 0票数 1

如果我使用encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder")作为编码器传递给Bart(encoder=encoder),它会报告错误,因为它没有实现get_input_dim();如果我像here一样传递encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder"), encoder = encoder.encoder作为输入编码器,它会报告错误,因为PretrainedTransformerEmbedder(model_name, sub_module="encoder")没有属性encoder。那么如何在allennlp中为seq2seq任务使用完整的bart模型(包括token_embed、position_embed)呢?

EN

回答 1

Stack Overflow用户

发布于 2020-12-12 10:56:22

如果只传递encoder=None (这是默认设置),Bart模型将使用原生的BART编码器。听起来这就是你想要的?

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/65245446

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档