首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TensorFlow:在多台机器上进行训练时,端点用于数据并行的目的是什么?

TensorFlow:在多台机器上进行训练时,端点用于数据并行的目的是什么?
EN

Stack Overflow用户
提问于 2017-01-09 16:19:34
回答 1查看 2.8K关注 0票数 1

TensorFlow-slim源代码中,在创建其损失函数时指出了一个端点:

代码语言:javascript
复制
def clone_fn(batch_queue):
  """Allows data parallelism by creating multiple clones of network_fn."""
  images, labels = batch_queue.dequeue()
  logits, end_points = network_fn(images)

  #############################
  # Specify the loss function #
  #############################
  if 'AuxLogits' in end_points:
    slim.losses.softmax_cross_entropy(
        end_points['AuxLogits'], labels,
        label_smoothing=FLAGS.label_smoothing, weight=0.4, scope='aux_loss')
  slim.losses.softmax_cross_entropy(
      logits, labels, label_smoothing=FLAGS.label_smoothing, weight=1.0)
  return end_points

来源:https://github.com/tensorflow/models/blob/master/slim/train_image_classifier.py#L471-L477

我的想法是,有多个相同的网络在不同的机器上训练,最后将变量和参数平均出来合并到一个网络中(这是正确的吗?)。但是我不太明白在这种情况下端点的用途是什么,因为我认为network_fn应该只生成用于预测的logits。end_points有什么用?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-03-09 06:36:40

本例中的endpoints只跟踪模型的不同输出。例如,AuxLogits one就有这样的日志。

票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/41543687

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档