腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
小
学习
率
与大
学习
率
在神经网络反向传播
学习
中,我们应该从高
学习
率
开始,在
学习
过程中慢慢降低吗? 哪一个是对的?
浏览 2
修改于2020-07-02
得票数 1
回答已采纳
1
回答
学习
率
术语,什么是“降低”
学习
率
?
我正在调查一个损失平台和克服它的各种技术,这使我看到了这一页和声明: 一旦
学习
停滞,模型通常会从将
学习
率
降低2-10倍中获益。这个回调监视一个数量,如果没有看到一个“耐心”时代的改善,
学习
率
就会降低。如果我的
学习
率
是0.001,那么我是将
学习
率
降低到0.001,还是降低到0.0001?一开始我会从0.001 > 0.0001开始考虑后者,但是当一个模型达到一个平台时,将
学习
率
改变成一个更小的值
浏览 0
提问于2022-04-05
得票数 0
1
回答
XGBoost -
学习
率
我之所以尝试这样做,是因为我想在迭代过程中改变
学习
矩阵(尝试做一些稍微递归的事情)。 知道为什么结果会不一样吗。
浏览 1
提问于2015-11-06
得票数 0
8
回答
选择
学习
率
我目前正致力于利用反向传播实现神经网络的随机梯度下降( SGD ),虽然我理解它的目的,但我有一些关于如何为
学习
速率选择值的问题。简单地说:我如何选择SGD的
学习
率
?
浏览 0
修改于2018-01-17
得票数 114
回答已采纳
2
回答
感知
学习
率
我不明白以下的说法:感知器的更新规则是错误情况下的$w \pm x$。
浏览 0
修改于2018-09-11
得票数 1
1
回答
学习
率
的GridSearchCV
我试图使用GridSearchCV在CNN中找到最佳参数,但当我试图找到
学习
率
和批量大小的最佳组合时,代码不起作用(如果我使用
学习
率
而不是
学习
率
,那么它就会起作用)。你知道为什么它不工作吗?grid_result = grid.fit(X,Y) 我得到的错误是'ValueError: learn_rate不是一个合法的参数‘,但我这样做了,就像我在一个例子中发现的那样,它适用于纪元,但不适用于
学习
率
浏览 18
提问于2020-07-31
得票数 0
1
回答
优化Tensorflow
学习
率
如何动态地找到最佳
学习
率
和衰减
率
? 像tf.train.exponential_decay这样的函数不能根据不同的情况动态改变,因为起始
率
和衰减
率
是预先定义的。
浏览 1
修改于2019-02-23
得票数 1
2
回答
Keras回调:
学习
率
、计划
率
和高原
学习
率
的降低
我试图在Keras中同时使用LearningRateScheduler和ReduceLROnPlateau回调,这会给
学习
速度带来问题吗?如果是这样的话,该模型使用的
学习
率
是多少?你认为那个时候的
学习
率
是多少?
浏览 3
提问于2018-12-03
得票数 1
回答已采纳
2
回答
在TensorFlow2中使用
学习
率
计划和
学习
率
预热
我必须使用
学习
率
预热,您可以使用
学习
率
预热开始训练CIFAR-10的VGG-19 CNN,在前10000次迭代(或大约13个时期)中从0.00001到0.1%的
学习
率
。然后对于剩余的训练,您使用
学习
率
0.01,其中
学习
率
衰减用于在80和120个时期将
学习
率
降低10倍。该模型必须训练总共144个时期。如何在代码中同时使用
学习
率
预热和
学习</
浏览 62
修改于2020-08-02
得票数 3
1
回答
绘制
学习
率
与损失
我试图通过将
学习
率
乘以一个恒定因子来找到最佳
学习
率
,然后他们在变化的
学习
率
上训练模型,.I需要在损失再次开始增加的转折点选择
学习
率
。要做到这一点,我需要可视化
学习
率
与损失图。我该怎么做。变化
率
的方法是l_rates = [] lr_new = lr * math.exp(math.log10(math.pow
浏览 10
修改于2021-09-05
得票数 1
1
回答
Keras的判别
学习
率
我希望为Keras的每一层应用不同的
学习
率
(就像Fastai中所做的那样)。在接近这一点的过程中,我所发现的是通过修改中的这一行self.optimizer.apply_gradients(zip(gradients, trainable_vars)),将梯度乘以其相应的
学习
率
(并将全局
学习
率
设置为1)。另一个想法是拥有与
学习
率
相同数量的优化器,并在自定义模型内的train_step函数中更新它们。
浏览 16
提问于2020-05-10
得票数 2
1
回答
差分
学习
率
- Keras
我在Medium上读了一篇名为Differential Learning Rates的文章,想知道这是否可以应用到Keras中。我能够找到在pytorch中实现的这种技术。这可以在Keras中实现吗?有没有人可以提供的示例代码?
浏览 54
修改于2021-10-01
得票数 3
回答已采纳
2
回答
tensorflow Adadelta的
学习
率
在原有的中,引入了思想2消除了
学习
速度。 那么,
学习
率
在tensorflow 中的意义是什么呢?
浏览 0
修改于2018-01-22
得票数 0
回答已采纳
1
回答
如何打印“实际”
学习
率
由于它不需要手动调整
学习
速率,据我所知,在声明优化器之后,我们不必设置任何计划。self.optimizer = torch.optim.Adadelta(self.model.parameters(), lr=1)current_lr = self.optimizer.param_groups有人能告诉我怎样才能得到真正的
学习
速度,这样我才能画出lr/epch曲线吗?
浏览 2
提问于2018-11-21
得票数 3
回答已采纳
1
回答
学习
率
越高,权重越大。
直到现在,我在所有的实验中都用0.0001作为
学习
速率(这给了我丢失和准确的正常值)。 当我使用0.1和0.0 1等高
学习
率
时,一切都变得疯狂起来。
浏览 2
提问于2017-12-08
得票数 0
回答已采纳
2
回答
火炬计划
学习
率
我正试图重新实施一篇论文,其中建议调整
学习
率
如下:
学习
率
下降的因子的回归值与耐心期10上的变化值为0.0001。
浏览 6
修改于2020-08-09
得票数 5
1
回答
深入理解
学习
率
我正在努力理解为什么
学习
率
不能普遍发挥作用。我有两个不同的数据集,并测试了三个
学习
率
0.001 ,0.01和0.1。对于第一个数据集,我能够通过使用随机梯度下降来实现所有
学习
速率的优化结果。对于第二个数据集,
学习
速率0.1没有收敛。我理解其背后的逻辑,超越梯度,然而,我没有理解为什么这是一个数据集,而不是另一个?
浏览 0
提问于2022-04-04
得票数 1
0
回答
自适应
学习
率
Lasagne
我正在使用Lasagne和Theano库来构建我自己的深度
学习
模型,以MNIST为例。谁能告诉我如何自适应地改变
学习
率
?
浏览 9
提问于2016-07-16
得票数 0
2
回答
为什么
学习
率
不变?
我在配置文件中看到,
学习
率
应该是自适应的。momentum_optimizer_value: 0.9 epsilon: 1.0 } 然后,我在训练过程中使用了TensorBoard,它告诉我,每个训练步骤的
学习
率
都是恒定的有没有可能,TensorBoard只能看到
学习
率
的初始值,优化器会实时计算
学习
率
的实际值?
浏览 38
提问于2019-04-16
得票数 1
回答已采纳
2
回答
TfIdf
学习
率
/文档权重
在使用LSA等其他技术时,我知道我可以调整
学习
率
,以便忘记较旧的文档或使其变得不那么重要。有没有什么方法可以让我用TfIdf做类似的事情?如果我能定义一个与文档的“日期”成比例的权重,那就更好了。
浏览 0
提问于2016-10-27
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券