腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(4868)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
SGD
,手工计算
虽然我发现了很多
SGD
(随机梯度下降)的材料,但我很难找到一个具体的例子,例如用手计算它,比如说,一次迭代会对我有很大的帮助。 📷
浏览 0
修改于2019-08-19
得票数 2
1
回答
SGD
与
SGD
在小批量上的比较
然后,我跟踪训练我的网络来解决2或3的小批大小的异或问题,因为这两种方法的准确性都比我做1(基本上就是
SGD
)所得到的更差。这是我的代码(Java) public void
SGD
(double[][] inputs,double[][] expected_outputs,int mini_batch_size,int epochs
浏览 0
修改于2019-03-06
得票数 1
回答已采纳
1
回答
SGD
训练精度
因此,我正在计算我的CNN的训练精度的批量训练数据,它几乎总是100%的准确性。但我从某个地方发现,为了获得训练的准确性,它是根据整个训练数据来测试的,而不是你在训练中使用的特定批次。📷 我怀疑这是由于使用小批量。
浏览 0
修改于2017-06-10
得票数 2
1
回答
SGD
实现Python
我知道
SGD
以前曾被问过这样的问题,但我想对我的代码有如下的意见:import matplotlib.pyplot as plt # Generating data
浏览 1
修改于2018-09-03
得票数 0
回答已采纳
1
回答
MNIST上
SGD
+momentum v/s
SGD
的误差比较
我正在从事一个玩具项目,以比较
SGD
和
SGD
+momentum优化器在MNIST数据上的性能。为此,我创建了两个单元格块,一个用于
SGD
:optimizer = optim.
SGD
(net.parameters(), lr=0.001+momentum创建了另一个单元: for epo
浏览 9
提问于2022-01-12
得票数 0
1
回答
SGD
优化器图
当我使用
SGD
优化器时,我似乎有两种基于平滑值的不同趋势。我应该使用哪一个?蓝色是val_loss,橙色是train_loss。
浏览 27
修改于2020-01-09
得票数 1
2
回答
Zebra 230-300
sgd
打印机
sgd
命令setvar
我试图用固件: V72.19.6Z更改斑马"device.languages" ZT230 标签打印机的属性,使用zebra安装实用程序直接通信功能。! U1 setvar "device.languages" "epl_zpl"但是,当我发送命令:! U1 getvar "device.languages"时,值没有被更改。我是以错误的方
浏览 12
修改于2014-05-19
得票数 0
3
回答
在python中
SGD
分类器和
SGD
回归器有什么不同?
在python sklearn中,
SGD
分类器和
SGD
回归器有什么不同?另外,我们可以设置批处理大小以提高性能吗?
浏览 3
修改于2019-02-15
得票数 1
2
回答
GD、批GD、
SGD
和小型批处理
SGD
有什么不同?
GD
SGD
小批量
SGD
浏览 0
修改于2019-06-15
得票数 3
回答已采纳
2
回答
SKlearn
SGD
部分拟合
我在这里做错了什么?我有一个大型数据集,我想在使用Scikit-learn的SGDClassifier时执行部分匹配from sklearn.linear_model import SGDClassifierclf2 = SGDClassifier(loss='log', penalty="l2")
浏览 7
提问于2017-02-09
得票数 12
回答已采纳
2
回答
SGD
模型“过度自信”
我正在使用Apache Mahout解决二进制分类问题。我使用的算法是OnlineLogisticRegression,我目前使用的模型强烈倾向于产生没有任何中间值的1或0的预测。提前感谢!
浏览 0
提问于2013-02-12
得票数 2
回答已采纳
1
回答
关于tf.keras
SGD
批量
我想在tf.keras中使用
SGD
优化器。但是
SGD
的细节说 我检查了
SGD
的,似乎没有随机的洗牌方法。我对
SGD
的理解是对随机样本应用梯度下降。我在代码中定义的批处理大小是否代表
SGD
随机洗牌阶段?
浏览 3
修改于2021-01-25
得票数 0
1
回答
如何导入logistic_
sgd
互联网上的代码需要“导入logistic_
sgd
”。然而,当我在我的命令中输入"pip install logistic_
sgd
“时,我得到:有人能帮我解决这个问题吗
浏览 13
提问于2017-08-01
得票数 0
1
回答
SGD
分类机器学习错误
cmap=plt.cm.Paired, edgecolor='black', s=20) plt.title("Decision surface of multi-class
SGD
浏览 2
提问于2021-08-27
得票数 0
1
回答
SGD
迷你批次-大小相同?
带有小批的随机梯度下降算法通常以小批的大小或计数作为参数。 如果我们是在一个简单的循环中,就会产生857 mini-batches of size 70 (as specified) and one mini-batch of size 10.。
浏览 3
提问于2016-06-06
得票数 1
回答已采纳
1
回答
SGD
与Adam优化澄清
它指出
SGD
优化以相同的学习速率更新参数(即在整个训练过程中不发生变化)。他们认为Adam是不同的,因为学习速度是可变的(适应性的),并且在训练过程中会发生变化。这是亚当(在大多数情况下)比
SGD
表现更好的主要区别吗?此外,它指出,它是计算上更便宜,这怎么能考虑到它似乎比
SGD
更复杂? 我希望我的问题是清楚的!
浏览 0
提问于2020-06-10
得票数 4
回答已采纳
1
回答
SGD
分类器精度-召回曲线
我正在研究一个二进制分类问题,我有一个
sgd
分类器,如下所示: max_iter = 1000, from sklearn.metrics import plot_precision_recall_curve 假设scikit学习中的
sgd
分类器默认使用loss="hinge&quo
浏览 1
修改于2021-05-10
得票数 1
回答已采纳
0
回答
SGD
上的训练精度
如何计算
SGD
的训练精度?您是否使用训练网络时使用的批处理数据来计算它?还是使用整个数据集?(每次批量优化迭代) 我尝试使用训练网络时使用的批处理数据计算每次迭代的训练精度。
浏览 9
修改于2017-06-11
得票数 0
1
回答
SGD
迭代的方差计算
众所周知,
SGD
迭代具有很大的方差。
浏览 0
修改于2021-02-12
得票数 1
1
回答
我的
SGD
实现有问题
我是机器学习的新手,我试图在numpy中实现
SGD
来优化单变量线性回归,但它找不到最优的参数。def
sgd
(alpha,x,y,params,epochs): cost_history = [] cost_history.append(cost_func(params,x,y))
sgd
_params,
sgd
_co
浏览 10
提问于2020-07-27
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券