首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TensorFlow embedding_lookup_sparse优化

TensorFlow embedding_lookup_sparse优化
EN

Stack Overflow用户
提问于 2018-07-11 14:11:30
回答 1查看 261关注 0票数 1

我有一些embedding_vectors,我需要使用以下new_embeddings

代码语言:javascript
复制
new_embeddings = tf.nn.embedding_lookup_sparse(
    params=embedding_vectors,
    sp_ids=some_ids,
    sp_weights=None,
)

问题是,对于给定的二维张量,some_ids确实很大,而且非常稀疏,但却是恒定的。我的管道包括对它的indicesvaluesshape的评估,我直接与sparse_placeholder中的训练循环一起使用这些评估来填充some_ids占位符。

不幸的是,它非常缓慢。似乎在每一个训练步骤中,some_ids都被转换成密度张量,这似乎是不必要的,也是很奇怪的。我对这个转换是正确的吗?对于embedding_lookup_sparse有其他选择吗?

EN

回答 1

Stack Overflow用户

发布于 2018-08-24 07:44:13

我发现matmul()tf.nn.embedding_lookup_sparse()快。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/51287735

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档