腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
前
馈
神经
网络
与递归神经
网络
的基本区别?
我经常读到,
前
馈
和递归神经
网络
(RNNs)之间有着根本的区别,这是因为
前
馈
网络
缺乏内部状态和短期记忆。乍一看,这似乎是有道理的。然而,当使用算法学习递归神经
网络
时,如果我正确理解,递归
网络
将被转化为等价的
前
馈
网络
。 这就意味着,实际上没有根本的区别。为什么RNNs在某些任务中表现更好(图像识别、时间序列预测、.)而不是深度的
前
馈
网络
?
浏览 2
提问于2014-05-24
得票数 7
回答已采纳
2
回答
“
前
向
网络
”和“完全连接的
网络
”有什么区别?
有人说“
前
馈
网络
”是一种典型的神经
网络
。如果是这样的话,“
前
馈
网络
”意味着更大的范围,包括“完全连接的
网络
”?如果是这样,RNN或CNN也包括在“
前
馈
网络
”中吗?我想不是..。我希望有一个清晰的描述。
浏览 2
提问于2017-08-29
得票数 0
回答已采纳
1
回答
递归神经
网络
作为特征提取
对于卷积
网络
,人们可以将卷积部分(卷积、最大池等)看作特征提取,然后将其反馈到
前
馈
网络
中进行分类(或多或少)。递归
网络
(RNN、LSTM等)是否也是如此,即递归层创建了数据/特征的表示,然后将这些数据/特征输入到
前
馈
层? 我是从情感分析的角度来思考的,即“顺序到一”的模式。你认为有一个递归层+一个
前
馈
层会比只有一个递归层
网络
更好吗?
浏览 1
提问于2018-02-11
得票数 1
回答已采纳
4
回答
OCR训练
前
馈
神经
网络
目前,我正在学习神经
网络
,我试图创建一个应用程序,可以训练识别手写字符。对于这个问题,我使用了
前
馈
神经
网络
,当我训练它识别1,2或3个不同的字符时,它似乎是有效的。但是,当我试图让
网络
学习超过3个字符时,它将停滞在40 %- 60%左右的错误百分比。
网络
类型:
前
馈
神
浏览 10
修改于2019-01-21
得票数 11
回答已采纳
1
回答
深度学习、深层神经
网络
、人工神经
网络
和进一步术语的确切区别是什么?
在阅读了一些理论之后,我对以下术语感到有点困惑:深层神经
网络
前
馈
神经
网络
深层神经
网络
是一种具有多层结构的
前
馈
神经
网络
。 我知道
前
馈
神经
网络
是什么,但据我所知,深神经
网络
是指在输入和
浏览 0
修改于2019-07-15
得票数 3
回答已采纳
3
回答
什么是递归神经
网络
,什么是长短期记忆(LSTM)
网络
,它总是更好吗?
我想我对
前
馈
神经
网络
非常了解。我看到的递归神经
网络
的例子是二进制加法。我可能错了,但据我所知,递归神经
网络
相当于具有T个隐藏层的
浏览 1
修改于2015-04-03
得票数 7
1
回答
任意拓扑的神经
网络
计算
在一些ppt演讲中读到了关于神经进化的文章,我偶然发现了一个短语: 我所找不到的是如何计算任意拓扑的神经
网络
。有什么“标准方法”(算法)吗?我设想一种方法(假设
前
馈
拓扑),虽然非常耗时,但它会循环所有神经元,直到计算出输出。 我设想另一种方法可能是将任意拓扑组织成层(也假设
前
馈
拓扑- ),
浏览 7
修改于2017-10-08
得票数 3
回答已采纳
2
回答
注意力机制可以应用于像前
馈
神经
网络
这样的结构吗?
最近,我了解了解码器-编码器
网络
和注意机制,并发现许多论文和博客在RNN
网络
上实现了注意机制。我感兴趣的是,如果其他
网络
可以结合注意神经
网络
的例子,编码器是一个
前
馈
神经
网络
,解码器是一个mechanisms.For。没有时间序列的
前
馈
神经
网络
可以使用注意机制吗?
浏览 33
提问于2019-09-29
得票数 0
回答已采纳
1
回答
神经
网络
无法预测高值。
我试图设计一个
前
馈
神经
网络
来预测回归值。最大值125和最小值是-1000在训练集的相依值。有人能建议我如何改进预测吗。
浏览 2
提问于2018-03-23
得票数 2
回答已采纳
4
回答
反向传播和
前
馈
神经
网络
有什么区别?
反向传播和
前
馈
神经
网络
有什么区别? 除了流向之外,还有其他的区别吗?那么,反向传播是否足以显示
前
馈
?
浏览 10
修改于2017-05-22
得票数 42
回答已采纳
4
回答
前
馈
网络
中的稀疏连接-流量还是火炬?
我想要建立稀疏的
前
馈
网络
,在Pytorch和Tensorflow中,也就是说,每个节点只连接到下一层的k个神经元数,其中k严格地小于下一层的节点总数。但是,到目前为止,我看到的所有教程/示例都是关于完全连接的
前
馈
网络
的。有没有办法在这些工具中构建这样稀疏的
网络
?
浏览 0
修改于2018-05-10
得票数 1
1
回答
深入学习研究中的提亚诺
学习类似
前
馈
网络
的实现真的有帮助吗?研究生在大学期间是否至少实施一次神经
网络
或其他算法?我对
前
馈
和递归
网络
、反向传播、机器学习问题的一般流水线和必要的数学都有一个合理的想法。
浏览 0
提问于2015-05-30
得票数 9
1
回答
变压器中的
前
馈
网络
是用来训练什么的?
然而,我不清楚
前
馈
神经
网络
是如何学习的。看看转换器的体系结构,我不清楚这些
前
馈
网络
中的目标变量是什么。有人能给我解释一下吗? 📷
浏览 0
提问于2020-02-13
得票数 1
回答已采纳
1
回答
级联
前
向神经
网络
我知道我们可以在中创建一个
前
馈
神经
网络
。然而,我们是否也可以在pybrain中创建一个级联
前
向神经
网络
?
浏览 0
修改于2015-01-20
得票数 0
回答已采纳
2
回答
Weka工具上的神经
网络
模型
我在Weka上很难找到这些神经
网络
模型。 有人能指点我吗?谢谢。
浏览 3
提问于2015-03-18
得票数 0
1
回答
前
馈
神经
网络
我在python中建立了一个基本的神经
网络
。其思想是,神经
网络
可以有任何你想要的结构,而不仅仅是标准层,每个神经元都连接到下一层的每一个神经元。
浏览 0
修改于2023-05-25
得票数 6
回答已采纳
1
回答
LSTM注意力如何有可变长度的输入
LSTM的注意机制是一个直接的softmax
前
馈
网络
,它接收编码器各个时间步长的隐藏状态和解码器的当前状态。这两个步骤似乎自相矛盾,我无法理解: 1)
前
馈
网络
的输入数量需要预先定义,2)编码器的隐藏状态数是可变的(取决于编码过程中的时间步骤数)。提前谢谢
浏览 1
提问于2017-06-08
得票数 10
回答已采纳
1
回答
密集
前
馈
网络
是一种深度神经
网络
吗?
前
馈
神经
网络
是属于深神经
网络
还是人工神经
网络
?我怀疑是把我的帧工作称为深神经
网络
还是人工神经
网络
。
浏览 5
修改于2022-02-05
得票数 -1
1
回答
前
馈
神经
网络
我只想检查我的
前
馈
实现是否以正确的方式编码。谢谢。
浏览 0
修改于2013-04-25
得票数 1
回答已采纳
1
回答
Tensorflow:将
前
馈
添加到LSTM
如何使用Tensorflow在标准LSTM
网络
之前添加额外的
前
馈
层?
浏览 3
修改于2019-12-10
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券