首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >在张量2.0 NMT的编解码器示例中隐藏张量的大小?

在张量2.0 NMT的编解码器示例中隐藏张量的大小?
EN

Stack Overflow用户
提问于 2019-12-26 17:43:26
回答 1查看 29关注 0票数 0

谁能建议一下为什么tensorflow tutorial中的"hidden = tf.zeros((1,units))“这行是正确的?我觉得应该是"hidden = tf.zeros((1,units))“。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-12-27 03:46:57

encoder使用线路hidden = [tf.zeros((1, units))]。具体地说,将hidden作为第二个输入参数传递给encoder.call()encoder.call()的定义是:

代码语言:javascript
复制
class Encoder(tf.keras.Model):

  def __init__(self, vocab_size, embedding_dim, enc_units, batch_sz):
    # ... Omitted some code...
    self.gru = tf.keras.layers.GRU(self.enc_units,
                                   return_sequences=True,
                                   return_state=True,
                                   recurrent_initializer='glorot_uniform')

  def call(self, x, hidden):
    x = self.embedding(x)
    output, state = self.gru(x, initial_state = hidden)
    return output, state

正如您所看到的,hidden被作为其initial_state传递给self.gru.call()。根据the documentation of tf.keras.layers.GRU,初始状态必须是列表,并且列表的长度必须与RNN的内部状态的数量相匹配。在这种情况下,RNN是GRU,并且有一个内部状态。因此,您会看到长度为-1的列表。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59486554

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档