腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(259)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何微调
GPT2
我是huggingface的新手,我正在用我自己的数据集搜索关于微调
GPT2
转换器的信息,但我找不到任何东西。我已经有了我的数据集并下载了
GPT2
模型。 我该怎么做,我该怎么开始呢?
浏览 86
修改于2021-11-23
得票数 1
回答已采纳
1
回答
GPT2
纸澄清
在GPT-2文件中,在第2节,第3页,它说,
浏览 16
提问于2022-06-10
得票数 0
回答已采纳
1
回答
在
gpt2
中使用past
我正在尝试运行huggingface文档中的一个脚本示例: import torch model= GPT2LMHeadModel.from_pretrained('
gpt2
') context
浏览 245
修改于2020-12-14
得票数 0
1
回答
错误:hd1,
gpt2
未找到
menuentry "Windows 8" { chainloader /EFI/microsoft/BOOT/bootmgfw.efi }error hd1,
gpt2
not found
浏览 0
修改于2018-10-10
得票数 1
1
回答
从
GPT2
收到短信有问题吗?
基本上,我试图让
gpt2
响应变量{text}中的提示符,并遇到以下错误:model = GPT2LMHeadModel.from_pretrained('
gpt2
浏览 20
提问于2021-11-25
得票数 0
1
回答
Huggingface Transformer -
GPT2
从保存的检查点恢复训练
恢复从run_clm.py实现的
GPT2
微调
GPT2
huggingface是否具有从保存的检查点恢复训练的参数,而不是从头开始再次训练?gpt-finetuned \ --per_device_train_batch_size 2 \ --save_steps 100 \ --block_size=200 \ --tokenizer_
浏览 98
提问于2021-01-01
得票数 1
回答已采纳
2
回答
面向
GPT2
和T5的句子分类模型API?
例如,对于
GPT2
,有、和类。也许我对
GPT2
和T5的研究不够熟悉,但我确信这两种模型都能够进行句子分类。所以我的问题是: 谢谢你的帮助。
浏览 3
提问于2020-06-24
得票数 3
1
回答
在没有GPU和TensorFlow的情况下,是否可以运行
GPT2
?
GPT2
是一个优秀的OpenAI项目。开发人员要求我们使用张量流和GPU。我只想使用(而不是训练)现有的训练参数。有没有办法使用
GPT2
,而不需要昂贵的硬件与GPU和不需要安装张量流?
浏览 3
提问于2020-01-04
得票数 2
1
回答
GPT2
如何在MegatronLM中实现模型并行?
我试图了解的实现细节,它具有模型和数据并行。在他们的或他们的研究中,他们提到了他们是如何使用层内并行的,这类似于网格TensorFlow。我对一些细节感到困惑。(8条路除以2块) 论文中也提到了 我的第二个问题是,96隐藏大
浏览 2
修改于2020-09-24
得票数 2
1
回答
如何保存检查点让变压器
gpt2
继续培训?
我正在重新培训
GPT2
语言模型,并关注这个博客: 在这里,他们已经在
GPT2
上训练了一个网络,而我也在尝试重新创建一个网络。
浏览 21
提问于2022-02-22
得票数 0
回答已采纳
1
回答
HuggingFace -
GPT2
托卡器在config.json中的配置
GPT2
finetuned模型被上传到中以进行推理。下面是精细拥抱面模型的配置- config.json文件, "_name_or_path": "
gpt2
", "architecturesgradient_checkpointing": false, "layer_norm_eps
浏览 15
提问于2021-02-19
得票数 1
回答已采纳
1
回答
维基文章的
GPT2
输入大小
该模型为我总结了文本。
浏览 2
提问于2020-03-30
得票数 1
2
回答
(不是
gpt2
)
我知道
gpt2
是基于转换器架构的,但是源代码在哪里,资源有限,没有关于如何编写的教程。我是NLP的新手,而且如果我不得不写小说的话,多部小说的变压器训练会有帮助吗?
浏览 13
提问于2021-12-15
得票数 -3
1
回答
微调
GPT2
时库达内存不足
这是与错误有关的代码段:output_dir=
浏览 22
修改于2022-03-19
得票数 0
1
回答
加速
GPT2
--优化tf.sess.run()的推理时间
我正在尝试优化
GPT2
上的推理时间。在Google Colab上,调用脚本后生成样本的当前时间是55秒。我添加了时间戳,试图找出瓶颈所在。
浏览 7
提问于2021-03-16
得票数 0
1
回答
BERT和
GPT2
的主要区别是什么?
那么我能否得出这样的结论:“BERT的预训练参数对NLU有好处”,“
GPT2
的预训练参数对NLG有好处”?或者,这两者之间还有什么其他关键的区别,使人们得出我在开始时提到的结论?
浏览 8
提问于2021-03-29
得票数 0
1
回答
同时使用past和attention_mask进行
gpt2
我正在处理一批长度不同的句子,因此我计划利用
gpt2
中的填充+
gpt2
功能。model = GPT2LMHeadModel.from_pretrained(
浏览 3
修改于2020-02-28
得票数 0
回答已采纳
2
回答
ImportError:没有名为tensorflow的模块无法运行Open AI
GPT2
我真的很不擅长编码,而且我第一次尝试从Open AI运行
GPT2
模型。
浏览 0
提问于2020-03-18
得票数 1
1
回答
GPT2
中未知令牌的拥抱面有效令牌化
我正在尝试使用
GPT2
来训练一个对话系统。对于令牌化,我使用以下配置来添加特殊令牌。接下来,当我试图标记一个序列(对话的话语)并随后转换为in时,我的序列中的一些最重要的标记被映射为未知令牌,因为这些重要令牌的in与bos和eos相同,因为它们都映射到<|endoftext|>,就像
GPT2
浏览 16
提问于2022-01-11
得票数 0
回答已采纳
1
回答
如何在翻译任务的
GPT2
训练中增加批量?
torch.LongTensor(nb_ops)
gpt2
= GPT2Model.from_pretrained('
gpt2
')out_layer = nn.Linearout_layer.parameters()) optimizer = torch.optim.Adam(paramet
浏览 9
修改于2021-05-11
得票数 2
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券