首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何截断Huggingface管道中的输入?

如何截断Huggingface管道中的输入?
EN

Stack Overflow用户
提问于 2021-06-05 12:56:25
回答 2查看 3.2K关注 0票数 10

我目前使用拥抱管道进行情感分析,如下所示:

代码语言:javascript
复制
from transformers import pipeline
classifier = pipeline('sentiment-analysis', device=0)

问题是,当我传递大于512标记的文本时,它只会崩溃,说明输入太长。是否有任何方法将max_length和截断参数从令牌程序直接传递给管道?

我的工作是:

从变压器进口AutoTokenizer,AutoModelForSequenceClassification

代码语言:javascript
复制
model_name = "nlptown/bert-base-multilingual-uncased-sentiment"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
classifier = pipeline('sentiment-analysis', model=model, tokenizer=tokenizer, device=0)

然后当我调用令牌程序时:

代码语言:javascript
复制
pt_batch = tokenizer(text, padding=True, truncation=True, max_length=512, return_tensors="pt")

但是,如果能够像这样直接调用管道就好得多了:

代码语言:javascript
复制
classifier(text, padding=True, truncation=True, max_length=512)
EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2021-08-01 11:00:02

这种方式应该有效:

代码语言:javascript
复制
classifier(text, padding=True, truncation=True)

如果它不尝试将令牌程序加载为:

代码语言:javascript
复制
tokenizer = AutoTokenizer.from_pretrained(model_name, model_max_len=512)
票数 7
EN

Stack Overflow用户

发布于 2022-01-16 12:03:01

您可以在推断时使用tokenizer_kwargs:

代码语言:javascript
复制
model_pipline = pipeline("text-classification",model=model,tokenizer=tokenizer,device=0, return_all_scores=True)

tokenizer_kwargs = {'padding':True,'truncation':True,'max_length':512,'return_tensors':'pt'}

prediction = model_pipeline('sample text to predict',**tokenizer_kwargs)

有关更多详细信息,您可以查看此链接

票数 11
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67849833

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档