腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(8531)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
从第一个例子中转移学习方法可以不用于目标检测吗?
图像分类.使用预训练
模型
(MobileNet V2
模型
) https://www.tensorflow.org/tutorials/images/transfer_learning#create_这个_
基座
_
模型
_从…_这个_预训练_凸网进行传递学习和
微调
对象检测-见Create model and restore weights for all but last layer节(ssd_resnet50
模型
)- https:/
浏览 0
提问于2022-08-03
得票数 0
1
回答
Tensorflow
模型
文件大小差异很大
例如,框架提供了两个
模型
: 当我在我的
模型
中应用
微调
时,在图形中做一些小改动(在框架中有一个模块)并保存我的
模型
时,大小基本上是相同的:178.525 kb。首先,我感到有点惊讶的是,我的
微调
模型
有点
大
,因为我只将最后一层从21个类更改为14个类,所以我希望
模型
文件的大小会稍微小一些,但由于差异太小,我没有注
浏览 3
提问于2017-11-15
得票数 0
1
回答
什么是最简单的方式继续培训一个预先培训的伯特
模型
,在一个特定的领域?
我想使用一个预先训练的伯特
模型
,以便在文本分类任务中使用它(我使用的是Huggingface库)。然而,预先训练过的
模型
是针对与我不同的领域而训练的,我有一个
大
的未注释的数据集,可以用来
微调
它。如果我只使用标记的示例并在特定任务(BertForSequenceClassification)的培训中
微调
它,那么数据集太小,无法适应特定领域的语言
模型
。这样做最好的方法是什么?谢谢!
浏览 5
提问于2021-04-27
得票数 1
回答已采纳
1
回答
对于序列分类来说,对
大
上下文的bert进行
微调
可以吗?
我想要创建序列分类bert
模型
。
模型
输入为2句。但是,我想用
大
上下文数据对
模型
进行
微调
,该数据由多个句子组成(标记的数量可能超过512)。如果训练数据的大小和实际输入数据的大小不同,可以吗? 谢谢
浏览 0
提问于2022-03-25
得票数 1
1
回答
在Unity3D中根据父大小重新缩放3d
模型
我有一个盘子,代表了3D
模型
的
基座
。它有meshfilter/meshrenderer/meshcollider组件。我的
模型
来自服务器,它由许多部分组成,它们有一个空的游戏对象作为父对象,称为"3dModel“。父级的比例是1.1.1。每个部件都有与盘片相同的组件。但
模型
要比拼盘
大
或小。盘片的比例是1.1.1,但
模型
有0.1,0.1,0.1比例,并且同时它比盘片
大
20倍。此外,我被拒绝在服务器上固定比例。也许有了网格,就有了计算大小的方法
浏览 0
修改于2018-08-02
得票数 0
1
回答
在web应用程序中为特定于用户的大型
模型
服务的最佳实践?
集成大型机器学习/深度学习
模型
微调
的web应用程序如何处理这些
模型
的存储和检索以进行推理?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S3或R2桶中。每次用户访问web应
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
1
回答
iPhone是否支持通过坞站接口输入音频
首先,很抱歉我的英文不好,我想通过
基座
接口在iPhone / iPod上播放音频,这个
模型
是从
基座
到iPhone的音频输入,而从iPhone的音频输出是不可能的
浏览 2
提问于2010-07-13
得票数 0
1
回答
微调
NLP
模型
在计算机视觉中,如果我们没有一个
大
的训练集,一个常见的方法是从一个预先训练过的
模型
开始一些相关的任务(例如ImageNet),并
微调
这个
模型
来解决我们的问题。 对于自然语言处理问题,能做类似的事情吗?特别是,是否有一个很好的方法来
微调
一个LSTM或1dcnn或其他转移学习?如果我们想对句子进行分类,那么是否有一个合理的预先训练的
模型
可以开始呢?
浏览 0
提问于2018-05-28
得票数 2
1
回答
微调
的正确方法--把一个完全连接的层训练成一个单独的步骤
我在caffenet中使用
微调
,它工作得很好,但是我在Keras 关于
微调
的博客中读到了这篇文章(他们使用经过训练的VGG16
模型
): “为了进行
微调
,所有层都应该从经过适当训练的权重开始:例如,你不应该把一个随机初始化的完全连接的网络放在一个预先训练过的卷积基础上这是因为随机初始化的权值引发的
大
梯度更新会破坏卷积基中的学习权重。在我们的情况下,这就是为什么我们首先训练顶级分类器,然后才开始与它并排
微调
卷积权。”因此,作为
微调
的另一步,它们在全连通层(“瓶颈特征”)之前
浏览 0
提问于2017-03-20
得票数 2
1
回答
如何用拥抱的脸来
微调
一个
模型
?
我想下载一个预先训练过的
模型
,并用我自己的数据对
模型
进行
微调
。我已经下载了一个伯特-
大
纳
模型
文物从拥抱脸,我已经列出了以下内容。对于这一点,我想知道我需要哪些文件或工件,从外观上看,pytorch_model.bin是经过训练的
模型
,但这些其他文件是什么以及它们的用途,比如令牌程序文件和vocab.txt . config.json
浏览 13
提问于2022-09-03
得票数 -1
1
回答
如何在我的tensorflow
模型
的转移学习和
微调
中实现?
我有一个预先训练过的
模型
(tensorflow
模型
),它是使用来自公共数据集的数据进行训练的。我有元文件和录入文件。我想训练我的tensorflow
模型
使用新的数据从私人获得的数据集。我有小数据集,所以我想
微调
我的
模型
根据‘战略2’或‘战略3’。但是,我无法找到在tensorflow
模型
的传输学习和
微调
中实现的示例代码。keras
模型
有很多例
浏览 0
修改于2020-03-02
得票数 1
1
回答
有没有办法在tensorflow中强制添加新的变量到现有的检查点?
假设有一个深度学习
模型
和一个具有预先训练好的权重的检查点。我想要做的是对预先训练的
模型
进行
微调
。然而,我发现我必须使用现有
模型
图中没有定义的新的ADAM优化器对
模型
进行
微调
。因为ADAM优化器本身有一些trainable_variables,所以如果我想要基于检查点对
模型
进行
微调
,我必须将它们添加到现有的检查点。
浏览 19
提问于2020-01-15
得票数 0
1
回答
针对不同语言的特定领域
微调
BERT?
我想对一个预先训练好的BERT
模型
进行
微调
。但是,我的任务使用特定领域内的数据(比如生物医学数据)。此外,我的数据也是一种不同于英语的语言(比如荷兰语)。现在,我可以
微调
荷兰bert-base-荷兰案例预训练
模型
。然而,我该如何对生物医学BERT
模型
进行
微调
,比如BioBERT,它属于正确的领域,但语言错误?如果我在没有对
模型
进行任何更改的情况下进行
微调
,我担心
模型
不会很好地学习任务,因为它是在完全不同的语言上预先训练的。
浏览 4
提问于2021-01-28
得票数 2
1
回答
如何
微调
我的训练
模型
(伯特)在另一个数据集
*我使用经过预先训练的BertModel在squadv1上
微调
模型
,然后
微调
结果
模型
到最终
模型
。这就是我如何在squadv1上加载我的三重
模型
的方法model = AutoModelForQuestionAnswering.from_pretrained(output_dir) tokenizer = AutoTokenizer.from_pretrain
浏览 3
提问于2021-12-16
得票数 0
1
回答
针对特定于上下文的嵌入角色
微调
BERT
模型
我正在试图找到关于如何训练BERT
模型
的信息,可能是从Huggingface Transformers库中,以便嵌入它的输出与我正在使用的文本的上下文更紧密地相关。然而,我能找到的所有例子都是关于为另一个任务
微调
模型
的,比如classification。有没有人碰巧有一个BERT
微调
模型
的例子,用于掩蔽标记或下一句预测,输出另一个根据上下文
微调
的原始BERT
模型
? 谢谢!
浏览 15
提问于2021-04-17
得票数 3
回答已采纳
1
回答
为什么有些TensorFlow集线器
模型
不能很好地调节?
我只是用TensorFlow学习图像分类,发现有一个TensorFlow集线器,我们可以使用很多
模型
来完成很多分类任务。例如,我想建立食品分类和发展
模型
,以便该
模型
将涵盖我国的食品,并有较高的准确性对某些特定的食品。我试着使用和调优这个
模型
:,但是为什么会有这样的信息:
模型
不能很好地调优?是什么使一个
模型
可以被
微调
而不能被
微调
呢? 谢谢。
浏览 10
修改于2022-02-19
得票数 2
1
回答
在迁移学习过程中,哪一部分应该冻结?
我想使用转移,学习和
微调
,我需要决定哪一部分的原始
模型
将使用,哪一部分将被冻结。我正在考虑四种可能的情况:小/
大
的新数据集,这个集合与原始数据集相似/不相似。应如何在每一种情况下取得最佳结果?
浏览 0
提问于2021-01-27
得票数 0
回答已采纳
1
回答
如何对bert
微调
模型
进行再次
微调
我使用ktrain对文本分类的bert
模型
进行了
微调
。同样,我想在另一个文本分类数据上对此
模型
进行
微调
。我该怎么做?
浏览 23
提问于2021-04-29
得票数 1
2
回答
神经网络的
微调
我最近读过关于
微调
的文章,我想知道的是,当我们对
模型
进行
微调
时,是否有必要冻结
模型
,只训练
模型
的顶部,然后解冻一些层,然后再重新训练
模型
,或者直接从解冻一些层开始?
浏览 0
提问于2019-11-25
得票数 0
回答已采纳
1
回答
如何用更多的提示来训练OpenAI精调
模型
?
我用一些提示对OpenAI
模型
进行了
微调
,在此之后,它成功地在操场上创建了一个新
模型
。我如何用新的提示重新训练(
微调
)相同的型号?
浏览 15
提问于2022-10-12
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券