如果我使用encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder")作为编码器传递给Bart(encoder=encoder),它会报告错误,因为它没有实现get_input_dim();如果我像here一样传递encoder = PretrainedTransformerEmbedder(model_name, sub_module="encoder"), encoder = encoder.encoder作为输入编码器,它会报告错误,因为PretrainedTransformerEmbedder(model_name, sub_module="encoder")没有属性encoder。那么如何在allennlp中为seq2seq任务使用完整的bart模型(包括token_embed、position_embed)呢?
发布于 2020-12-12 10:56:22
如果只传递encoder=None (这是默认设置),Bart模型将使用原生的BART编码器。听起来这就是你想要的?
https://stackoverflow.com/questions/65245446
复制相似问题