首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用于德国新闻分类的HuggingFace转换器模型

用于德国新闻分类的HuggingFace转换器模型
EN

Stack Overflow用户
提问于 2020-08-31 21:56:09
回答 1查看 250关注 0票数 0

我一直在尝试为我的项目找到一个合适的模型(多类德语文本分类),但与here提供的模型有点混淆。有一些带有text-classification标签的模型,但它们是用于二进制分类的。大多数其他模型都是用于[MASK]单词预测的。我不确定该选择哪一个,以及它是否能与多个类一起工作

如果有任何建议,将不胜感激!

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2020-09-01 06:39:56

当您的类完全不同时,您不需要寻找特定的文本分类模型,因为大多数列出的模型都使用了一个基本模型,并对基本层进行了微调,并根据需要训练了输出层。在您的情况下,您将删除输出层,它们对基础层的微调不会给您带来太多好处,也不会对您造成太大伤害。有时他们扩展了词汇表,这对你的任务可能是有益的,但你必须检查描述(通常是稀疏的:()和你自己的词汇表,以获得关于各自模型的更多细节。

一般来说,我建议您立即使用其中一个基本模型,并仅在结果不充分的情况下寻找其他模型。

以下是包含6个类的bert示例:

代码语言:javascript
复制
from transformers import BertForSequenceClassification, BertTokenizer

tokenizer = BertTokenizer.from_pretrained("bert-base-german-dbmdz-uncased")
model = BertForSequenceClassification.from_pretrained("bert-base-german-dbmdz-uncased", num_labels=6)
票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/63672169

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档