腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(315)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
锻造
BackPropagation
我在视频演播室上使用的是一个锻造框架。我没有错误,但输出是错误的。我的代码; { girdi = Convert.ToDouble(txt_girdi.Text); dizi[0] = girdi; lbl_sonuc.Text =
浏览 0
提问于2014-04-17
得票数 0
回答已采纳
1
回答
基本分类器和
BackPropagation
我正在学习Coursera的机器学习课程,我刚刚接受了一次询问。 因此,每个分类器都有一个定义的任务(例如AND、OR等),并且网络必须针对此任务进行训练。所以我的问题是:这是反向传播算法的任务吗(除了用于更新权重的事实之外)?
浏览 2
修改于2020-05-15
得票数 1
1
回答
BackPropagation
神经元网络方法-设计
我完成了一个二维
BackPropagation
神经元网络的实现.我的拓扑大小是5 -> 3 -> 10,所以它是一个二维输入层,一个二维隐藏层和一个一维输出层.然而,我得到了奇怪和错误的结果(平均错误和输出值of this SUM as Results
BackPropagation
浏览 2
修改于2015-12-20
得票数 2
回答已采纳
1
回答
神经网络
BackPropagation
训练误差下降过慢
我尝试使用JAVA实现神经网络反向传播,我已经编写了代码,但结果并不令人满意。误差减小得太慢了。以下是训练结果的示例: epoch:6 current error:0
浏览 1
提问于2014-01-08
得票数 1
1
回答
用
backPropagation
逼近线性函数的前馈c#网络
我正在学习"Accord.Neuro“前馈
backPropagation
网络,并使用c#中的
backPropagation
库(我使用了管理”动量“本身的ResilientBackpropagationLearning
浏览 4
修改于2017-06-12
得票数 0
1
回答
为什么在使用Accord.NET运行
BackPropagation
时会出现OutofRangeException?
我正在处理Accord.NET中不同的深度学习算法,我决定用我随处可见的光谱数据来做这件事。我使用Accord的统计工具箱对数据进行PCA变换,以便将其减少到10个数据点。然后严格按照教程进行操作: DeepBeliefNetwork network = new DeepBeliefNetwork(transformedInputs.First().Length, 10, 10); new GaussianWeights(ne
浏览 4
提问于2016-12-08
得票数 2
1
回答
神经病:多层感知器反向传播学习无效
org.neuroph.core.data.DataSet;import org.neuroph.nnet.learning.
BackPropagation
100; i++) { }
BackPropagation
backPropagation
= new
BackPro
浏览 1
提问于2015-05-02
得票数 3
回答已采纳
1
回答
我正在训练一个简单的反向传播神经网络,但使用Neuroph框架只能得到0.0或1.0
new double[] {0.9}));
BackPropagation
backPropagation
= new
BackPropagation
();
backPropagation
.setMaxError(0.0075);
ba
浏览 9
修改于2019-12-07
得票数 0
0
回答
Error NullPointer Neuroph doOneLearningIteration
org.neuroph.nnet.learning.MomentumBackpropagation.updateNeuronWeights(MomentumBackpropagation.java:72)at org.neuroph.nnet.learning.
BackPropagation
.updateNetworkWeigh
浏览 2
提问于2016-07-11
得票数 1
回答已采纳
1
回答
设置齿轮EarlyStoppingStrategy参数的适当方法
培训方法配置如下:
Backpropagation
train = new
Backpropagation
(network
浏览 0
提问于2015-12-08
得票数 1
回答已采纳
1
回答
我的反向传播实现出了什么问题?
(inputs, weights, learning_rate, biases, number_of_samples_for_
backpropagation
, target_outputs):random_sample_index = np.random.randint(0, inputs.shape[0], size=number_of_samples_for_
backpropagation
(training_set_features, weights, learning_rate, biases_train, number_of_samples_for_
浏览 6
修改于2022-09-26
得票数 -1
1
回答
Encog反向传播错误未更改
network.reset(); final
Backpropagation
train = new
Backpropagation
(network, training_data); train.iteration
浏览 3
提问于2016-12-29
得票数 0
2
回答
使用darch预测新的样本类
)darch <- preTrainDArch(darch,inputs,maxEpoch=1000)#
backpropagation
training the layer functions must berm(layers) # Setting and running the Fine-T
浏览 5
提问于2015-10-18
得票数 0
回答已采纳
2
回答
如何使这种神经网络训练功能更快
network.Reset(); Train train = new HeatonResearchNeural.Feedforward.Train.
Backpropagation
.
Backpropagation
浏览 0
修改于2013-01-30
得票数 1
回答已采纳
1
回答
径向基函数神经网络C#
我想使用
BackPropagation
学习规则。 我有所有的数据,所以我所需要的就是RBF神经网络。谢谢!
浏览 4
修改于2012-04-14
得票数 6
回答已采纳
1
回答
LeCun关于深度学习的论文(自然杂志,2015年)
Le村关于深度学习(Nature, vol. 521, 2015)的论文时,我遇到了一个数字(论文中的第一个),它与
backpropagation
期间通过卷积网络进行的反向传递有关。PS :链接到上面提到的图是https://www.researchgate.net/figure/Multilayer-neural-networks-and-
backpropagation
-a-A-multi-layer-neural-network-shown-by_fig4
浏览 0
修改于2019-06-27
得票数 1
2
回答
R包DARCH深度信念神经网络似乎无法学习“异或”
2)darch <- preTrainDArch(darch,inputs,maxEpoch=100)#
backpropagation
training the layer functions must berm(layers) # Setting and running the Fine-T
浏览 3
提问于2014-07-16
得票数 2
1
回答
如何在多进程中共享对象
selection and is added in tree selection()
backpropagation
selectiondef evaluationdef
backpropagation
浏览 6
修改于2018-04-01
得票数 1
1
回答
用多种训练方法训练人工神经网络
); //
Backpropagation
train = new
Backpropagation
((BasicNetwork) network, trainingSet, 0.2, 0.1); train.addStrategy(s
浏览 1
提问于2015-01-19
得票数 5
回答已采纳
1
回答
重建和反向传播有什么区别?
我正在学习一个关于理解限制Boltzmann机器 (RBM)的教程,我注意到他们同时使用了术语reconstruction和
backpropagation
来描述更新权重的过程。
浏览 0
修改于2020-06-16
得票数 0
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券