首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何从Huggingface的管道方法中获得损失,以完善模型?

如何从Huggingface的管道方法中获得损失,以完善模型?
EN

Stack Overflow用户
提问于 2022-10-02 17:18:18
回答 1查看 52关注 0票数 1

我正试图在QA的拥抱面上使用这个模型。它的代码在链接中:

代码语言:javascript
复制
from transformers import AutoModelForQuestionAnswering, AutoTokenizer, pipeline
model_name = "deepset/roberta-base-squad2"

# a) Get predictions
nlp = pipeline('question-answering', model=model_name, tokenizer=model_name)
QA_input = {
    'question': 'Why is model conversion important?',
    'context': 'The option to convert models between FARM and transformers gives freedom to the user and let people easily switch between frameworks.'
}
res = nlp(QA_input)

# b) Load model & tokenizer
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

print(res)
>>>
{'score': 0.2117144614458084,
 'start': 59,
 'end': 84,
 'answer': 'gives freedom to the user'}

然而,我不知道如何得到一个损失,所以我可以完善这个模型。我正在查看拥抱脸教程,但除了在链接中使用Trainer方法或其他培训方法(这不是QA)之外,没有看到其他任何东西:

代码语言:javascript
复制
import torch
from transformers import AdamW, AutoTokenizer, AutoModelForSequenceClassification

# Same as before
checkpoint = "bert-base-uncased"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForSequenceClassification.from_pretrained(checkpoint)
sequences = [
    "I've been waiting for a HuggingFace course my whole life.",
    "This course is amazing!",
]
batch = tokenizer(sequences, padding=True, truncation=True, return_tensors="pt")

# This is new
batch["labels"] = torch.tensor([1, 1])

optimizer = AdamW(model.parameters())
loss = model(**batch).loss
loss.backward()
optimizer.step()

假设真正的答案是freedom to the user而不是gives freedom to the user

EN

回答 1

Stack Overflow用户

发布于 2022-10-02 17:32:40

你不必承受损失。Hugginface中有Trainer类,您可以使用它来训练您的模型。它还为拥抱面模型进行了优化,并包含了您可能感兴趣的许多不同类型的深度学习最佳实践。见此处:课程/培训师

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/73927835

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档