首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在huggingface/transformers中训练RoBERTa时检查损失?

如何在huggingface/transformers中训练RoBERTa时检查损失?
EN

Stack Overflow用户
提问于 2020-07-20 11:08:42
回答 1查看 1.1K关注 0票数 1

我使用transformers从头开始训练了一个RoBERTa模型,但是我无法使用

https://colab.research.google.com/github/huggingface/blog/blob/master/notebooks/01_how_to_train.ipynb

在笔记本中,每500步打印一次损失,但在训练期间没有记录训练损失:

代码语言:javascript
复制
Iteration: 100%|█████████▉| 20703/20711 [4:42:54<00:07,  1.14it/s][A  
Iteration: 100%|█████████▉| 20704/20711 [4:42:54<00:05,  1.24it/s][A  
Iteration: 100%|█████████▉| 20705/20711 [4:42:55<00:05,  1.20it/s][A  
Iteration: 100%|█████████▉| 20706/20711 [4:42:56<00:04,  1.18it/s][A  
Iteration: 100%|█████████▉| 20707/20711 [4:42:57<00:03,  1.19it/s][A  
Iteration: 100%|█████████▉| 20708/20711 [4:42:58<00:02,  1.16it/s][A  
Iteration: 100%|█████████▉| 20709/20711 [4:42:59<00:01,  1.14it/s][A  
Iteration: 100%|█████████▉| 20710/20711 [4:43:00<00:00,  1.13it/s][A  
Iteration: 100%|██████████| 20711/20711 [4:43:00<00:00,  1.45it/s][A  
Iteration: 100%|██████████| 20711/20711 [4:43:00<00:00,  1.22it/s]  
Epoch: 100%|██████████| 13/13 [61:14:16<00:00, 16952.06s/it]  
Epoch: 100%|██████████| 13/13 [61:14:16<00:00, 16958.16s/it]

compress roberta.20200717.zip on ./pretrained
save roberta.20200717.zip on minio(petcharts)

没有打印损失的值,所以我不知道训练是否收敛得很好。如何监控训练过程中的损失?

EN

回答 1

Stack Overflow用户

发布于 2020-11-21 20:20:50

只需尝试使用较新版本的库再次执行该笔记本(例如,直接在colab中),该库的日志已被重写。请注意,由于不推荐使用,Trainer可能需要一组略有不同的参数。

该示例显示了没有问题的输出中的训练损失

我正在使用

代码语言:javascript
复制
tokenizers                    0.9.4          
transformers                  4.0.0rc1

这些训练论据似乎能做好这项工作:

代码语言:javascript
复制
from transformers import Trainer, TrainingArguments

training_args = TrainingArguments(
    output_dir="./EsperBERTo",
    overwrite_output_dir=True,
    num_train_epochs=1,
    per_device_train_batch_size=64,
    save_steps=10_000,
    save_total_limit=2,
)

trainer = Trainer(
    model=model,
    args=training_args,
    data_collator=data_collator,
    train_dataset=dataset,
)
票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62988081

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档