首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TensorFlow 2中tf.contrib.seq2seq.prepare_attention的等价性是什么

TensorFlow 2中tf.contrib.seq2seq.prepare_attention的等价性是什么
EN

Stack Overflow用户
提问于 2020-07-12 11:58:25
回答 1查看 388关注 0票数 1

我最近写了一些用tensorflow 1.0.1编写的代码,我想让它在tenorflow 2上可用。我对seq2seq不是很熟悉。非常感谢。

代码语言:javascript
复制
(attention_keys,
attention_values,
attention_score_fn,
attention_construct_fn) = tf.contrib.seq2seq.prepare_attention(
    attention_states=attention_states,
    attention_option="bahdanau",
    num_units=self.decoder_hidden_units,
)
EN

回答 1

Stack Overflow用户

发布于 2020-07-15 16:22:22

根据此Github Commenttf.contrib.seq2seq.prepare_attention()将重命名为tf.contrib.seq2seq.DynamicAttentionWrapper

根据此Github Tensorflow CommitDynamicAttentionWrapper已重命名为AttentionWrapper

因此,在1.15中,相当于tf.contrib.seq2seq.prepare_attention()的函数是tf.contrib.seq2seq.AttentionWrapper

Tensorflow 2.x中相当于tf.contrib.seq2seq.AttentionWrapper的函数是tfa.seq2seq.AttentionWrapper

有关详细信息,请查找此Tensorflow Documentation

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/62856917

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档