首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >微调/训练预先训练的BERT关于没有句子但只有文字的数据(银行交易)

微调/训练预先训练的BERT关于没有句子但只有文字的数据(银行交易)
EN

Stack Overflow用户
提问于 2022-04-22 10:53:14
回答 1查看 123关注 0票数 0

我有很多银行交易,我想分类为不同的类别。问题是,案文本身并不是一个句子,只是由“私人提款”、“付款发票19234”、“税收”等词组成。

由于领域是如此的具体,我想我们可以通过微调一个已经经过预先训练的伯特来获得更好的表现,而不是仅仅使用预先训练的伯特,但是当我们没有句子的时候,我们该怎么做呢?也就是说,如何创建“猜下一句”部分?或者我们可以跳过它?

EN

回答 1

Stack Overflow用户

发布于 2022-04-22 14:09:18

你的问题是序列分类问题。如果你想使用预先训练过的模型,你想要做转移学习。基本上,您希望使用Bert基础模型,并添加一层分类。

你可以检查一下https://huggingface.co/docs/transformers/model_doc/bert#transformers.BertForSequenceClassification的拥抱面

我的回答不是很具体,可以在你的问题中添加细节。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/71967595

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档