首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >如何在TensorFlow循环中减少内存消耗?

如何在TensorFlow循环中减少内存消耗?
EN

Stack Overflow用户
提问于 2016-03-24 06:28:53
回答 1查看 4.5K关注 0票数 8

我在TensorFlow中有一个循环,如下所示:

代码语言:javascript
复制
with tf.device("/gpu:1"):
    losses = []

    for target, output in zip(targets, lstm_outputs):
        logits = tf.matmul(W, output) + b
        loss = tf.nn.sparse_softmax_cross_entropy_with_logits(logits, target)
        losses.append(loss)

    total_loss = tf.add_n(losses)

当为这一层分配梯度时,我得到了一个OOM错误,因为每个矩阵乘法都是图中占用内存的一个不同的操作。是否有办法防止TensorFlow同时分配所有这些操作?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-03-24 15:33:55

对于TensorFlow来说,这是一个具有挑战性的优化图,因为必须保持来自每个层的激活来聚合W的单个梯度。一种可能是在调用experimental aggregation_method参数时传递optimizer.optimize()参数。

例如,您可以尝试以下方法:

代码语言:javascript
复制
optimizer = tf.train.AdagradOptimizer(...)  # Or another optimization algorithm.
train_op = optimizer.minimize(
    total_loss,
    aggregation_method=tf.AggregationMethod.EXPERIMENTAL_ACCUMULATE_N)

此选项热切地将递归使用的变量的渐变聚集到位,而不是将它们全部保存在内存中,直到计算完所有的渐变。如果这不起作用,tf.AggregationMethod.EXPERIMENTAL_TREE可能会运行得更好。

票数 8
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36194394

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档