腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
什么是最简单的方式继续培训一个预先培训的伯特
模型
,在一个特定的领域?
我想使用一个预先训练的伯特
模型
,以便在文本分类任务中使用它(我使用的是Huggingface库)。然而,预先训练过的
模型
是针对与我不同的领域而训练的,我有一个
大
的未注释的数据集,可以用来
微调
它。如果我只使用标记的示例并在特定任务(BertForSequenceClassification)的培训中
微调
它,那么数据集太小,无法适应特定领域的语言
模型
。这样做最好的方法是什么?谢谢!
浏览 5
提问于2021-04-27
得票数 1
回答已采纳
1
回答
对于序列分类来说,对
大
上下文的bert进行
微调
可以吗?
我想要创建序列分类bert
模型
。
模型
输入为2句。但是,我想用
大
上下文数据对
模型
进行
微调
,该数据由多个句子组成(标记的数量可能超过512)。如果训练数据的大小和实际输入数据的大小不同,可以吗? 谢谢
浏览 0
提问于2022-03-25
得票数 1
1
回答
Tensorflow
模型
文件大小差异很大
例如,框架提供了两个
模型
: 当我在我的
模型
中应用
微调
时,在图形中做一些小改动(在框架中有一个模块)并保存我的
模型
时,大小基本上是相同的:178.525 kb。首先,我感到有点惊讶的是,我的
微调
模型
有点
大
,因为我只将最后一层从21个类更改为14个类,所以我希望
模型
文件的大小会稍微小一些,但由于差异太小,我没有注
浏览 3
提问于2017-11-15
得票数 0
1
回答
微调
的正确方法--把一个完全连接的层训练成一个单独的步骤
我在caffenet中使用
微调
,它工作得很好,但是我在Keras 关于
微调
的博客中读到了这篇文章(他们使用经过训练的VGG16
模型
): “为了进行
微调
,所有层都应该从经过适当训练的权重开始:例如,你不应该把一个随机初始化的完全连接的网络放在一个预先训练过的卷积基础上这是因为随机初始化的权值引发的
大
梯度更新会破坏卷积基中的学习权重。在我们的情况下,这就是为什么我们首先训练顶级分类器,然后才开始与它并排
微调
卷积权。”因此,作为
微调
的另一步,它们在全连通层(“瓶颈特征”)之前
浏览 0
提问于2017-03-20
得票数 2
1
回答
微调
NLP
模型
在计算机视觉中,如果我们没有一个
大
的训练集,一个常见的方法是从一个预先训练过的
模型
开始一些相关的任务(例如ImageNet),并
微调
这个
模型
来解决我们的问题。 对于自然语言处理问题,能做类似的事情吗?特别是,是否有一个很好的方法来
微调
一个LSTM或1dcnn或其他转移学习?如果我们想对句子进行分类,那么是否有一个合理的预先训练的
模型
可以开始呢?
浏览 0
提问于2018-05-28
得票数 2
1
回答
在web应用程序中为特定于用户的大型
模型
服务的最佳实践?
集成大型机器学习/深度学习
模型
微调
的web应用程序如何处理这些
模型
的存储和检索以进行推理?我正在考虑的当前方法是以压缩格式将精调
模型
存储在S3或R2桶中。每次用户访问web应
浏览 0
提问于2023-02-03
得票数 0
回答已采纳
1
回答
如何用拥抱的脸来
微调
一个
模型
?
我想下载一个预先训练过的
模型
,并用我自己的数据对
模型
进行
微调
。我已经下载了一个伯特-
大
纳
模型
文物从拥抱脸,我已经列出了以下内容。对于这一点,我想知道我需要哪些文件或工件,从外观上看,pytorch_model.bin是经过训练的
模型
,但这些其他文件是什么以及它们的用途,比如令牌程序文件和vocab.txt . config.json
浏览 13
提问于2022-09-03
得票数 -1
1
回答
在迁移学习过程中,哪一部分应该冻结?
我想使用转移,学习和
微调
,我需要决定哪一部分的原始
模型
将使用,哪一部分将被冻结。我正在考虑四种可能的情况:小/
大
的新数据集,这个集合与原始数据集相似/不相似。应如何在每一种情况下取得最佳结果?
浏览 0
提问于2021-01-27
得票数 0
回答已采纳
1
回答
我需要
微调
最后的卷积层,在一个最先进的CNN
模型
,如ResNet50?
我的毕业设计是使用CNN
模型
上的转移学习,它可以从胸部X光图像中诊断新冠肺炎。利用贝叶斯优化器利用Keras调谐器库对完全连通层数、层中节点数、学习速率、下降率等超参数进行
微调
,得到了很好的结果,多类分类的测试准确率为98%,二进制分类的测试准确率为99%。然而,我冻结了所有的层在原来的基础
模型
。我只
微调
了最后一个完全连接的层后,详尽的超参数优化。大多数的文章和论文说,他们精细的完全连接的层,以及一些卷积层。我做错什么了吗?恐怕这太好了,不可能是真的。我的数据集没有那么
大
,只有7000张来自卡格尔新冠肺炎
浏览 3
修改于2021-02-10
得票数 0
回答已采纳
1
回答
针对不同语言的特定领域
微调
BERT?
我想对一个预先训练好的BERT
模型
进行
微调
。但是,我的任务使用特定领域内的数据(比如生物医学数据)。此外,我的数据也是一种不同于英语的语言(比如荷兰语)。现在,我可以
微调
荷兰bert-base-荷兰案例预训练
模型
。然而,我该如何对生物医学BERT
模型
进行
微调
,比如BioBERT,它属于正确的领域,但语言错误?如果我在没有对
模型
进行任何更改的情况下进行
微调
,我担心
模型
不会很好地学习任务,因为它是在完全不同的语言上预先训练的。
浏览 4
提问于2021-01-28
得票数 2
1
回答
回归问题在值除以100时得到更好的结果
我注意到,当我运行目标在0-100范围内的
模型
时,它不会学习-验证损失没有改善,25%
大
目标的损失非常
大
,比这组中的std大得多。然而,当我用0-1范围内的目标运行
模型
时,它确实学习了,并且我得到了很好的结果。 如果有人能解释为什么会发生这种情况,如果使用范围0-1是“作弊”,那就太好了。 还有-我应该扩展目标吗?一些额外的信息-我正在尝试
微调
bert以完成特定的任务。我使用MSEloss。 谢谢!
浏览 35
提问于2020-07-26
得票数 0
1
回答
有没有办法在tensorflow中强制添加新的变量到现有的检查点?
假设有一个深度学习
模型
和一个具有预先训练好的权重的检查点。我想要做的是对预先训练的
模型
进行
微调
。然而,我发现我必须使用现有
模型
图中没有定义的新的ADAM优化器对
模型
进行
微调
。因为ADAM优化器本身有一些trainable_variables,所以如果我想要基于检查点对
模型
进行
微调
,我必须将它们添加到现有的检查点。
浏览 19
提问于2020-01-15
得票数 0
1
回答
如何在我的tensorflow
模型
的转移学习和
微调
中实现?
我有一个预先训练过的
模型
(tensorflow
模型
),它是使用来自公共数据集的数据进行训练的。我有元文件和录入文件。我想训练我的tensorflow
模型
使用新的数据从私人获得的数据集。我有小数据集,所以我想
微调
我的
模型
根据‘战略2’或‘战略3’。但是,我无法找到在tensorflow
模型
的传输学习和
微调
中实现的示例代码。keras
模型
有很多例
浏览 0
修改于2020-03-02
得票数 1
1
回答
针对特定于上下文的嵌入角色
微调
BERT
模型
我正在试图找到关于如何训练BERT
模型
的信息,可能是从Huggingface Transformers库中,以便嵌入它的输出与我正在使用的文本的上下文更紧密地相关。然而,我能找到的所有例子都是关于为另一个任务
微调
模型
的,比如classification。有没有人碰巧有一个BERT
微调
模型
的例子,用于掩蔽标记或下一句预测,输出另一个根据上下文
微调
的原始BERT
模型
? 谢谢!
浏览 15
提问于2021-04-17
得票数 3
回答已采纳
1
回答
如何使用resnet50
模型
进行
微调
?
我在互联网上看到了许多关于如何
微调
VGG16和InceptionV3的例子。例如,一些人会在
微调
VGG16时将前25层设置为冻结。对于InceptionV3,头172个层将被冻结。但是resnet呢?当我们进行
微调
时,我们将冻结一些基本
模型
的层,如下所示: base_model = ResNet50(实际上,当我使用VGG16、VGG19、ResNet50、InceptionV3 .etc进行
微调
时,我不知
浏览 6
提问于2017-10-11
得票数 2
1
回答
如何
微调
我的训练
模型
(伯特)在另一个数据集
*我使用经过预先训练的BertModel在squadv1上
微调
模型
,然后
微调
结果
模型
到最终
模型
。这就是我如何在squadv1上加载我的三重
模型
的方法model = AutoModelForQuestionAnswering.from_pretrained(output_dir) tokenizer = AutoTokenizer.from_pretrain
浏览 3
提问于2021-12-16
得票数 0
1
回答
如何对bert
微调
模型
进行再次
微调
我使用ktrain对文本分类的bert
模型
进行了
微调
。同样,我想在另一个文本分类数据上对此
模型
进行
微调
。我该怎么做?
浏览 23
提问于2021-04-29
得票数 1
1
回答
在fine_tune_checkpoint中没有pipeline.config字段
我想
微调
CenterNet MobileNetV2 FPN键盘512x512,以便从:检测对象。我把焦油装上然后提取。pipeline.config doen没有fine_tune_checkpoint字段,所以我无法在预先训练的
模型
上进行
微调
。我有两个问题:-有什么方法可以增加
微调
场吗?是因为这个
模型
的输出是关键点吗?
浏览 6
提问于2021-06-02
得票数 1
1
回答
使用tensorflow对最后一层之外的其他层进行
微调
,以用于初始v3预训练
模型
在我的分类任务中,我必须对inception V3预训练
模型
进行
微调
。然而,当我在互联网上搜索时,似乎只能
微调
这个
模型
的最后一层。我希望
微调
所有的层,或者至少是完全连接的层,而不仅仅是顶层。
浏览 2
修改于2017-05-23
得票数 0
2
回答
Android
微调
器滚动到顶部
我有在getDropDownView()方法中创建的项目的
微调
器。在创建了
微调
器后,我不知道为什么它会滚动到
微调
器中的最后一项(
微调
器比整个屏幕视图都
大
)。问题是如何在不选择项目的情况下滚动到
微调
器项目的顶部?ScrollY,ScrollTo在这里不起作用。 问候
浏览 2
提问于2020-02-03
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券