腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(293)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
用
RoBERTa
库对具有新数据的
RoBERTa
模型进行预处理
我使用“简单转换器”库预训练了新数据的
RoBERTa
模型:model = ClassificationModel('
roberta
', '
roberta
-base',use_cuda=False, num_labels我已经加载了预先训练过的模型,如它所说的这里
浏览 0
提问于2022-05-23
得票数 0
1
回答
如何获取
RoBERTa
word嵌入?
给定一个句子“
RoBERTa
是BERT的一个高度优化的版本。”,我需要用
RoBERTa
获得这个句子中每个单词的嵌入。我试着在网上查看示例代码,但没有找到明确的答案。我的观点如下:all_layers =
roberta
.extract_features(tokens, return_all_hiddens
浏览 3
修改于2020-03-26
得票数 4
1
回答
从
Roberta
模型绘制混淆矩阵
我使用
Roberta
模型编写了包含两个类的文本分类代码,现在我想绘制混淆矩阵。如何绘制基于
Roberta
模型的混淆矩阵?RobertaTokenizer = RobertaTokenizer.from_pretrained('
roberta
-base',do_lower_case=False)
roberta
_model= TFRobertaForSequenceClassification.from_pretrained('
roberta
-base',num_la
浏览 45
提问于2021-07-04
得票数 0
1
回答
为什么在提取
roBERTa
时冻结位置嵌入?
我对huggingface的distillBERT工作很感兴趣,通过查看他们的代码(),我发现如果使用
roBERTa
作为学生模型,他们会冻结位置嵌入,我想知道这是为了什么?def freeze_pos_embeddings(student, args): student.
roberta
.embeddings.position_embeddings.weight.requires_gradgpt2": s
浏览 1
修改于2020-04-25
得票数 1
1
回答
加载
Roberta
基模型的问题
我试图使用AutoTokenizer.from_pretrained('
roberta
-base')使用罗伯塔基模型,但我得到了以下错误: RuntimeError: Failed to import
浏览 40
提问于2021-12-08
得票数 2
回答已采纳
1
回答
伯特使用WordPiece,
RoBERTa
使用BPE
在
RoBERTa
文件“4.4文本编码”一节中提到: 最初的BERT实现(Devlin等人,2019)使用了一个大小为30K的字符级BPE词汇表,该词汇表是在使用启发式标记化规则对输入进行预处理后学习的。我很感谢有人能澄清为什么在
RoBERTa
的论文中说伯特使用BPE?
浏览 0
提问于2020-12-11
得票数 0
回答已采纳
1
回答
预训练
roberta
关系提取属性误差
import AutoTokenizer, AutoModeltokenizer = AutoTokenizer.from_pretrained("mmoradi/Robust-Biomed-
RoBERTa
-RelationClassification") inputs
浏览 4
提问于2021-10-22
得票数 1
回答已采纳
1
回答
如何准备BERT/
RoBERTa
模型的文本?
我已经建立了一个人工语料库(不是真正的语言),每个文档都是由多个句子组成的,这些句子也不是真正的自然语言句子。如何标记文档?像这样:<s>sentence1</s><s>sentence2</s>如何训练? 我是否需要训练传销机或NSP或两者兼备?
浏览 0
提问于2022-02-15
得票数 1
1
回答
Roberta
模型预处理文本中的混淆
我想把
Roberta
模型应用到文本相似性上。给定一对句子,输入应采用<s> A </s></s> B </s>格式。,即from transformers import AutoTokenizer, AutoModel b) tokenizer =
浏览 5
修改于2020-04-15
得票数 1
回答已采纳
1
回答
XLM-
RoBERTa
标记- id关系
我使用了XLM-
RoBERTa
标记器来获取一系列句子的ID,例如: ["loving is great", "This is another example"] 我发现在我的句子中,返回的ID并不总是与空格分隔的标记数量一样多
浏览 35
修改于2020-10-25
得票数 2
回答已采纳
1
回答
多序列的
Roberta
标记化
huggingface-transformers中的
Roberta
Tokenizer将罗伯塔的标记化方法描述为: - single sequence: ``<s> X </s>`` - pair of
浏览 7
提问于2020-04-28
得票数 1
回答已采纳
1
回答
对于
roberta
-large模型,训练损失没有减少,但对于
roberta
-base,bert-base-uncased,效果很好
我有一个pytorch lightning代码,当使用bert-base或
roberta
-base时,它非常适合二进制分类任务,但不能用于
roberta
-large,即训练损失不会下降。
浏览 0
修改于2020-07-16
得票数 2
1
回答
如何使用
RoBERTa
进行多输出回归?
我有一个问题陈述,我希望使用文本输入来预测多个连续输出。我尝试使用HuggingFace库中的“robertaforsequenceclassification”。但文档指出,当最后一层中的输出数超过1时,就会自动使用交叉熵损失,如下所述:。但是,我想在回归设置中使用RMSE损失,最后一层有两个类。人们将如何修改它呢?
浏览 3
提问于2020-06-08
得票数 2
回答已采纳
2
回答
基于微调MLM的
RoBERTa
不提高性能
使用余弦学习速率调度器(2-3周期/历元)由于
RoBERTa
模型是针对特定领域的数据进行细化的,因此我们确实期望该模型的性能要好于对一般文本(wiki数据、书籍等)进行培训的预培训-
RoBERTa
。我们在特定领域的
RoBERTa
和训练前的罗伯塔上做了这件事。有谁能帮助我们理解为什么基于MLM的模型没有表现得更好?
浏览 0
提问于2023-04-18
得票数 1
1
回答
如何在huggingface/transformers中训练
RoBERTa
时检查损失?
我使用transformers从头开始训练了一个
RoBERTa
模型,但是我无法使用 Iteration: 100%|████████14:16<00:00, 16952.06s/it] save
roberta
.20200717.zip o
浏览 16
修改于2020-11-21
得票数 1
1
回答
使用领域文本预训练BERT/
RoBERTa
语言模型,估计需要多长时间?哪个更快?
我想使用领域语料库(情感相关文本)预训练BERT和
RoBERTa
传销。使用50k~100k单词需要多长时间。由于
RoBERTa
没有经过训练来预测下一个句子的目标,比BERT少一个训练目标,并且具有更大的小批量和学习率,我假设
RoBERTa
会快得多?
浏览 28
修改于2020-03-26
得票数 1
回答已采纳
1
回答
使用
roberta
模型无法定义模型.compile或摘要
RobertaForSequenceClassificationtokenizer = RobertaTokenizer.from_pretrained('
roberta
-base')print
浏览 62
提问于2021-06-27
得票数 0
回答已采纳
2
回答
在AWS torch.hub.load上加载
roberta
.large.mnli时出错(“pytorch/fairseq”,“
roberta
.large.mnli”)
我试图在AWS上的EC2实例上使用Torch (和
Roberta
语言模型)运行一些代码。编译似乎失败了,有人有指针要修复吗?试图装载罗伯塔Using cache found in /home/
浏览 15
提问于2020-12-23
得票数 1
回答已采纳
4
回答
RoBERTa
中的下一句预测
我正试着思考下一个句子预测在
RoBERTa
中的工作方式。
浏览 0
提问于2020-06-29
得票数 2
2
回答
很难理解
Roberta
模型中使用的令牌器
from transformers import AutoModel, AutoTokenizer tokenizer1 = AutoTokenizer.from_pretrained("
roberta
-base
浏览 4
修改于2020-04-10
得票数 13
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券