我想使用预训练任务对我的数据进行facebook/mbart-large-cc25调优,特别是掩蔽语言建模(MLM)。
我如何在HuggingFace中做到这一点?
编辑:为了清晰起见,重写了问题
发布于 2021-09-23 09:44:34
由于您是在HuggingFace中完成所有工作,因此对预训练任务(假设在Huggingface中提供了预训练任务)对模型进行微调对于大多数模型来说几乎是相同的。您对哪些任务感兴趣,希望对mBART进行微调?
Hugginface为几个微调任务提供了大量文档。例如,下面提供的链接将帮助您微调用于语言建模、MNLI、SQuAD等的HF模型。https://huggingface.co/transformers/v2.0.0/examples.html和https://huggingface.co/transformers/training.html
https://stackoverflow.com/questions/69296379
复制相似问题