腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
Tensorflow错误:变量gru_def/rnn/gru_cell/网关/内核不存在,或者不是用tf.get_variable()创建的
= tf.Variable(tf.random_uniform([vocab_
size
,
embedding
_
size
], 0.0, 1.0),dtype=tf.float32) hidden_state_in =cell.zero_state(batch_
size
,tf.float32) with tf.variable_scope你是想把reuse=True或reuse=tf.
AUTO</
浏览 2
修改于2018-01-07
得票数 2
回答已采纳
1
回答
重塑打破了Keras模型
embedding
_
size
= 50# Both inputs are 1-dimensional name='ingredients',) name='documents',) ingredients_
embedding<
浏览 19
修改于2019-03-08
得票数 0
回答已采纳
1
回答
我尝试使用functional API在tensorflow 2.x中创建模型,但得到LSTM层不兼容错误
def create_model(
embedding
,
embedding
_dim, samp_
size
): neighbor = Input(shape=(None, samp_
size
), dtype=tf.int64) labelc = LSTM(
embedding
_
size
, return_sequences=
浏览 0
修改于2020-07-25
得票数 0
2
回答
Keras: BiLSTM只在return_sequences=True工作时才能工作
(vocabulary_
size
+1,
embedding
_dim, input_length=sequence_length, trainable=False)(inputs_w)c_emb =
Embedding
= ModelCheckpoint('bilst
浏览 0
提问于2019-04-15
得票数 0
回答已采纳
2
回答
如何在下面的场景中使用python元类?
(BaseConfig,
size
=200):
size
= 300def function(Config, blah, blah): char_
embedding
_
size
浏览 6
修改于2018-01-17
得票数 1
回答已采纳
0
回答
卷积神经网络的词嵌入
W = tf.Variable(tf.constant(0.0, shape=[vocabulary_
size
,
embedding
_
size
]),
embedding
_placeholder = tf.placeholder(tf.float32, [vocabulary_
size
,
embedding
_
size
])
embedding
_init
浏览 0
修改于2017-01-26
得票数 1
回答已采纳
1
回答
我能导出tensorflow中单词的嵌入矩阵吗?
def word_
embedding
(shape, dtype=tf.float32, name='word_
embedding
'): return tf.get_variable('
embedding
', shape, dtype=dtype, initializer=tf.random_normal_initializer(stddev=0.1), tra
浏览 0
修改于2017-12-29
得票数 3
回答已采纳
2
回答
特征列预训练嵌入
我在tf.feature_column.
embedding
_column中使用了tf.feature_column.
embedding
_column嵌入。但不起作用。Column_name的嵌入: itemx FLAGS.pre_emb) W = tf.Variable(tf.constant(0.0, shape=[vocab_
size
浏览 0
修改于2018-07-20
得票数 1
回答已采纳
3
回答
如何在HTML/CSS中将嵌入的视频放在图像的顶部?
HTML img src="images/imgc.jpg" class="stretch" alt="image"CSS width : 100%;} position: relative; backgroun
浏览 0
修改于2013-11-21
得票数 0
回答已采纳
1
回答
嵌入层中的Keras -掩蔽零填充
Tokenizer as Keras_Tokenizerimport numpy as np vocab_
size
= 9 + 1
embedding
_layer =
Em
浏览 0
修改于2018-08-20
得票数 3
1
回答
hidden_dim和embed_
size
在LSTM中的含义是什么?
, output_
size
,
embedding
_dim, hidden_dim, n_layers, drop_prob=0.5): self.output_
size
= output_
size
self.hidden_dim= hidden_dim self.
embedding
= nn.
Em
浏览 739
提问于2019-09-23
得票数 1
回答已采纳
1
回答
Pytorch C++ RuntimeError: cuda设备类型的预期对象,但在调用_th_index_select时获得了参数#1 'self‘的设备类型cpu
) this->
embedding
_dim = int64_t(pre_embed[0].
size
()); this->d
浏览 3
修改于2020-07-24
得票数 1
回答已采纳
1
回答
Keras模型错误解释输入数据形状
=
Embedding
(name='ingredients_
embedding
', output_dim=embedded_document_
size
)(ingredients) #
Embedding
the document (shape will be (None, 1,
浏览 5
提问于2019-03-08
得票数 0
1
回答
解码器中嵌入层的输出(神经机器翻译)
www.tensorflow.org/tutorials/text/nmt_with_attention来理解注意力模型 在解码器部分是这样写的: # x shape after passing through
embedding
== (batch_
size
, 1,
embedding
_dim) x = self.
embedding
(x) 我不明白为什么嵌入输出是(batch_
size
,1,
embedding
_dim)根据文档(https:/
浏览 25
提问于2020-08-06
得票数 0
3
回答
如何保存keras recommenderNet模型?
模型构建模型后,如何保存它,链接到doc is def __init__(self, num_users, num_movies,
embedding
_
size
init__(**kwargs) self.num_movies = num_movies self.
embedding
_
size
=
embedding
_
siz
浏览 3
修改于2020-07-17
得票数 0
1
回答
在seq2seq中对编码器和解码器使用相同的嵌入
python/ops/rnn_cell.py中: additional_info_
size
_
embedding
_classes, self._
embedding
_
size
], initializer=initializer) embedded =
embedding
_ops.
embedding
_lookup(<e
浏览 20
提问于2016-09-09
得票数 0
回答已采纳
1
回答
关于“带注意力的神经机器翻译”的TensorFlow 2.0教程中的注意事项
class Decoder(tf.keras.Model): self.batch_sz = batch_sz self.
embedding
= tf.keras.layers.
Embedding
(vocab_
size
,
embedding
_dim)
浏览 2
修改于2019-10-30
得票数 0
1
回答
当嵌入矩阵的第一个维度增加时,如何使用tf.nn.
embedding
_look()?
我将单词嵌入矩阵初始化为[1000, emb_
size
]形状,并基于10篇文章训练模型。在这之后,我得到了一篇有5个新词的新文章,所以词汇量变成了1005。为了用额外的文章训练模型,我必须保留旧的嵌入矩阵,并在底部添加5行新行,即[1005, emb_
size
]的形状。, opts.embed_
size
], ) shape = [5, opts.e
浏览 2
修改于2016-11-04
得票数 0
1
回答
在Keras中嵌入单词也是一种降维技术吗?
我想了解
embedding
_dim与使用整个vocab_
size
的一个热向量的目的,它是从vocab_
size
dim降到
embedding
_dim维度的一个热向量,还是直觉上还有其他的效用?另外,我们应该如何确定
embedding
_dim号?密码-
embedding
_dim = 16
浏览 2
提问于2020-09-05
得票数 1
回答已采纳
1
回答
为什么pytorch模型不能识别我定义的张量?
class Tem(torch.nn.Module): super(Tem, self__init() self.hidden_
size
= hidden_
size
= None self.use
浏览 43
修改于2021-11-13
得票数 1
回答已采纳
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券