腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
如何在分类任务中可视化
注意力
机制
?
我用的
注意力
机制
成功地完成了实验,现在我和可视化混淆了。我也不太明白热图。如果你们能向我解释这些,那就意味着很多: 提前感谢!
浏览 4
修改于2017-07-10
得票数 0
2
回答
注意力
机制
真的是
注意力
,还是只是再一次回顾记忆?
在阅读
注意力
机制
时,我对
注意力
这个术语感到困惑。我们的
注意力
是否和通常的定义中描述的一样?
浏览 22
提问于2019-03-03
得票数 1
回答已采纳
1
回答
如何使用
注意力
机制
对句子进行编码?
经过几个层次的注意
机制
,我仍然会有相同的矩阵。 如何将此矩阵转换为包含完整句子编码表示的单个向量?
浏览 0
修改于2021-06-01
得票数 0
回答已采纳
1
回答
如何在CNN中加入龙的
注意力
机制
?
当我为下面的图像二值分类编写CNN模型时,我试图在这个模型中添加一个注意层。我从tf.keras.layers.Attention:https://www.tensorflow.org/api_docs/python/tf/keras/层/注意上读到model = keras.Sequential() model.add(Conv2D(filters = 64, kernel_size = (3, 3), activation = 'relu', padding='same', input_shape =
浏览 0
修改于2022-06-04
得票数 1
1
回答
如何为非文本分类建模具有
注意力
机制
的RNN?
具有
注意力
机制
的递归神经网络(RNN)通常用于机器翻译和自然语言处理。在Python中,具有
注意力
机制
的RNN的实现在机器翻译中非常丰富(例如,https://talbaumel.github.io/blog/attention/,但是我想要做的是在时态数据文件(不是任何基于文本/句子的数据)上使用带
注意力
机制
的https://talbaumel.github.io/blog/attent
浏览 28
提问于2019-01-17
得票数 1
1
回答
使用
注意力
机制
实现编码器和解码器架构
我想从头开始实现具有
注意力
机制
的编码器-解码器。有没有人能帮我写一下代码?
浏览 5
提问于2020-06-03
得票数 0
1
回答
在
注意力
机制
中,“源隐藏状态”指的是什么?
注意力
权重计算如下:我想知道h_s指的是什么。
浏览 0
修改于2018-01-23
得票数 3
回答已采纳
1
回答
添加
注意力
机制
,以便从神经网络生成热图输出
我想要添加“
注意力
”
机制
,以便在输出中具有测试实例的热图。
浏览 1
提问于2020-04-21
得票数 0
1
回答
Keras中的
注意力
:如何在keras密集层中添加不同的
注意力
机制
?
', **kwargs)(encoded) 我还浏览了这个漂亮的lib: https://github.com/CyberZHG/keras-self-attention 他们已经实现了各种类型的注意
机制
我如何才能在我的模型中添加这些
注意力
?我试着用非常简单的
注意力
: encoded = Dense(256, activation='relu', name='encoded1', **kwargs)(noisy_data)我可以在这个模
浏览 36
修改于2019-04-10
得票数 0
2
回答
注意力
机制
可以应用于像前馈神经网络这样的结构吗?
最近,我了解了解码器-编码器网络和注意
机制
,并发现许多论文和博客在RNN网络上实现了注意
机制
。没有时间序列的前馈神经网络可以使用注意
机制
吗?如果可以,请提前给我一些suggestions.Thank!
浏览 33
提问于2019-09-29
得票数 0
回答已采纳
1
回答
如何在Keras中将
注意力
机制
添加到我的序列到序列体系结构中?
'adam', metrics=['accuracy'])它运行得相当好,但我打算通过应用
注意力
机制
来改进它
浏览 0
提问于2020-05-17
得票数 1
1
回答
尝试构建具有
注意力
机制
的编码器解码器,但图形结果总是断开,请您帮助我?
dimensionality = 4 encoder_inputs = Input(shape=(None, num_encoder_tokens)) go_backwards=True), merge_mod
浏览 15
修改于2020-11-18
得票数 1
1
回答
为什么转换器不在每个层中使用位置编码?
在输入传递到变压器模型之前,位置编码被添加到输入中,因为否则注意
机制
将是顺序不变的。然而,编码器和解码器都是分层的,每一层都需要注意。那么,如果顺序对于
注意力
机制
很重要,那么位置编码不应该添加到每个多头
注意力
块的输入中,而不是只在模型的输入端添加一次吗?
浏览 3
提问于2021-01-02
得票数 1
2
回答
Keras有没有一个关注层?
我将为LSTM神经网络实现
注意力
机制
。我使用了这一层(),但它增加了错误!也许这是因为我的数据集,但类似的研究已经在
注意力
层获得了更高的准确性。你能给我介绍一下在Keras中实现
注意力
的另一种简单易用的方法吗?
浏览 3
修改于2020-11-24
得票数 2
1
回答
在tensorflow嵌入
注意力
seq2seq中,projection_output是如何影响
注意力
向量大小的
我不知道为什么输出投影会影响
注意力
向量的大小。在我看来,
注意力
机制
是基于单元格输出计算的,在被
注意力
使用之前,没有对单元格输出进行投影操作。那么,输出投影如何影响
注意力
向量的大小呢? 非常感谢,并恳求一些解释...
浏览 0
提问于2017-03-18
得票数 0
2
回答
如何在MultiRNNCell和dynamic_decode中使用AttentionMechanism?
我想创建一个使用
注意力
机制
的基于RNN的多层动态解码器。为此,我首先创建了一个
注意力
机制
: normalize=True) 然后我使用AttentionWrapper来包装一个带有
注意力
机制
的向MultiRNNCell动态解码器添加
注意力
浏览 16
修改于2017-07-06
得票数 2
回答已采纳
1
回答
tfjs-examples/date-conversion attention中使用的
注意力
模型是什么?
这是一个很好的例子,但是在这个例子中使用了哪种
注意力
机制
呢?Readme文件中没有信息。有没有人能告诉我,这篇论文描述了这里所使用的
注意力
? 注意部分链接:
浏览 13
修改于2020-02-04
得票数 0
1
回答
基于seq2seq模型的抽象文本摘要
我想知道seq2seq摘要模型的工作原理以及
注意力
机制
。
浏览 10
提问于2020-01-05
得票数 0
2
回答
Keras -向LSTM模型添加注意
机制
model.add(PReLU())model.add(Dense(1, activation='sigmoid'))任何帮助都将不胜感激,尤其是代码修改。谢谢:)
浏览 2
修改于2018-11-05
得票数 12
1
回答
RNN的最佳设备放置策略?
此外,如果我们再增加一个
注意力
机制
,是否应该把
注意力
放在中央处理器上呢?
浏览 7
提问于2017-02-24
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券