腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
我们可以使用
GPT-2
语句嵌入分类任务吗?
现在,我想使用
GPT-2
嵌入(没有微调)。所以我有两个问题 在生成任务以外的分类任务中是否有使用
GPT-2
的示例?如果我可以使用
GPT-2
嵌入,我应该如何做呢?
浏览 1
修改于2020-11-29
得票数 2
1
回答
TensorFlow v1 on Colab,tf.contrib模块未找到
试着在谷歌科拉布培训
GPT-2
。我运行的细胞看起来是这样的:..。/train.py", line 17, in <module> File "/content/
gpt-2
/src/
浏览 7
提问于2021-03-14
得票数 0
3
回答
如何修改
gpt-2
代码以使用Tensorflow 2.0?
我正在尝试使用
gpt-2
来生成文本。即使在运行Tensorflow 2.0 之后,也会出现兼容性错误。我遵循的步骤: 输入python3 src/generate_unconditional_samples.p
浏览 40
修改于2020-11-29
得票数 2
1
回答
Tensorflow不会使用Anaconda导入
我正在尝试让
Gpt-2
在Win10英特尔i7 950上工作,并在Anaconda (python3.5,Tensorflow 1.12)中设置了一个env,但我甚至还没有完成张量流的导入。import tensorflow as tf File "D:\anaconda3\envs\
gpt-2
\lib\site-packagesin <module> from tensorflow.python.pywrap_tensorflow_internal im
浏览 39
修改于2020-07-24
得票数 0
1
回答
Huggingface变压器启动
scoop, slice'))我只能通过Huggingface Transformer访问
GPT
我如何在Huggingface上启动
GPT-2
large来复制上述示例?问题是,使用时,不能分别使用输入和相应的输出(正如上面的GPT-3演示的作者所做的那样)。所需的输出:使用
GPT-2
返回类似的内容,对于输入“土豆”,输出"peel,slice,cook,mash,ba
浏览 9
提问于2021-02-03
得票数 1
1
回答
Spacy-Transformers: Access
GPT-2
?
说: 预培训的spaCy管道,XLNet和
GPT-2
import spacy nlp = spacy.load("en_core_web_trf我已经搜索了,还没有看到类似的包,以访问
GPT-2
。是否有一个特定的spacy.load()包,为了使用
GPT-2
模型而加载?
浏览 13
提问于2021-08-27
得票数 0
回答已采纳
3
回答
加速
GPT-2
简单文本的生成
嗨,我正在尝试生成一个20令牌文本使用
GPT-2
简单。我花了大约15秒的时间来生成这个句子。艾城需要大约4秒的时间才能生成相同大小的句子。有办法加快
GPT-2
文本的生成吗?
浏览 18
提问于2022-02-08
得票数 1
1
回答
Transformer Decoder只使用什么内存?
我读了很多关于转换器和自我注意的文章,看到BERT和
GPT-2
都是一个较新的版本,只使用了编码器变压器(BERT)和解码器变压器(
GPT-2
)。所以我的问题是,如果你没有编码器,你怎么把像
GPT-2
这样的解码器模型传递给内存呢?
浏览 19
提问于2020-12-17
得票数 1
1
回答
在NLP中,
gpt-2
的正确输入是什么?
我正在微调预训练的
gpt-2
文字摘要。数据集包含“文本”和“参考摘要”。因此,我的问题是,如何添加特殊的令牌,以获得正确的输入格式。如果是这样的话,接下来的问题是最大标记长度(即
gpt-2
的1024 )是否也意味着连接的文本长度和参考摘要? 任何评论都将是非常感谢的!
浏览 0
提问于2020-12-11
得票数 4
1
回答
有没有
GPT-2
实现可以让我微调和提示文本补全?
我希望对一些文本数据上的
GPT-2
实现进行微调。然后,我想使用这个模型来完成一个文本提示。使用Max Woolf的gpt-2-simple实现,我可以很容易地完成第一部分。OpenAI的Neil Shepherd's fork允许在新数据上训练
GPT-2
并完成文本。 然而,我的语料库太小了,不能训练,也不能得到胡言乱语的回复。有没有办法把这两个函数结合起来呢?
浏览 31
修改于2020-11-29
得票数 2
回答已采纳
2
回答
转换器解码器是否重用以前令牌的中间状态(如GPT2 )?
最近,我阅读了Jay关于
GPT-2
(http://jalammar.github.io/illustrated-gpt2/)的博文,其中我发现有一点非常清晰:他解释说,
GPT-2
的译码器一次只处理一个输入令牌这是
GPT-2
解码器之间的区别,还是“经典”转换器的译码器也是这样工作的?
浏览 0
修改于2020-03-25
得票数 3
回答已采纳
1
回答
GPT模型如何从标记概率到文本输出?
假设
GPT-2
或GPT-3试图生成下一个令牌,并且它对不同可能的下一个令牌具有一个概率分布(在将softmax应用于某些输出逻辑之后)。它如何在文本输出中选择要使用的令牌?
GPT-2
纸提到顶部k个随机抽样(引用"递阶神经层生成"),而从不提到波束搜索。GPT-3纸提到核采样(引用"神经文本退化的奇例")和束搜索(引用"用统一文本到文本转换器探讨迁移学习的局限性")。
浏览 0
提问于2023-03-20
得票数 1
回答已采纳
1
回答
与TensorFlow JS一起使用的OpenAI
GPT-2
型号
可以使用TensorFlowJS从OpenAI
GPT-2
生成文本吗? 如果不是,限制是什么,比如模型格式或...?
浏览 73
修改于2020-11-29
得票数 7
1
回答
gpt-2
不能与python一起使用吗?
occurred: ModuleNotFoundError File "F:\PythonFiles\Post Generator\
gpt
那么,有没有其他方法可以做到这一点,或者
gpt-2
不能用于python?
浏览 1
修改于2020-11-29
得票数 2
2
回答
如何使用BERT/
GPT-2
进行释义生成?
我正在努力理解如何使用BERT/
GPT-2
来生成意译。我不明白我该怎么做。你能给我提供任何资源吗?我可以建立一个释义生成模型吗?“输入是句子,输出是句子的释义”。
浏览 18
提问于2021-03-07
得票数 3
1
回答
GPT-2
的encoder.py和train.py不工作
我正在尝试训练
GPT-2
使用我在文本文件napoleon.txt中提供的内容。当我运行编码器时,它似乎是从命令提示符运行的。更大的问题是,我为了训练
GPT-2
而实际需要的train.py,每次都会输出一个错误。
浏览 3
提问于2021-04-08
得票数 0
1
回答
在本地使用Kubeflow编排TFX管道
嘿,我正在开发一个包,它生成了一个用于训练
GPT-2
的TFX Pipeline(参见https://github.com/steven-mi/tfx-gpt2)。
浏览 20
修改于2020-08-21
得票数 2
1
回答
哪个更好: GPT还是RelGAN用于文本生成?
根据我的理解,gpt或
gpt-2
正在使用语言模型丢失来训练和生成不包含GAN的文本。我对这个问题很困惑。
浏览 0
提问于2019-03-26
得票数 1
回答已采纳
2
回答
无法从“_TPU_AVAILABLE”导入名称“pytorch_lightning.utilities”
我正在尝试导入aitexten包来处理
GPT-2
解决方案。
浏览 24
提问于2022-11-04
得票数 0
1
回答
GPT-2
体系结构问题
我已经提出了一个架构-它将基于
GPT-2
。但是现在我很难理解它的输出的一般格式。我检查了
GPT-2
的这 PyTorch实现,下面是我所理解的:区块只是一个具有注意层和卷积层的解码器块。如果我想要我的输出是固定的形状,我需要使用什么占位符,以防输入句子小于最大输入大小的
GPT-2
模型? 拜托,你能帮我理解一下吗?我很感谢你的帮助。提前谢谢你!
浏览 0
提问于2023-03-17
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券