首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >TensorFlow-Slim中的ResNet V2版本的输入图像大小是正确的

TensorFlow-Slim中的ResNet V2版本的输入图像大小是正确的
EN

Stack Overflow用户
提问于 2017-05-11 17:41:59
回答 1查看 7.5K关注 0票数 2

在TesnorFlow-Slim中的ResNet V2文档中有一些不明确之处,我无法完全解决。

README.md中,他们建议使用299x299输入映像:

^ ResNet V2模型使用盗梦空间预处理,输入图像大小为299 (使用eval_image_classifier.py时使用预处理_名称起始--eval_V2_ size 299 )。

但是,在注释这里中,它们使用的是224x224的图像:

代码语言:javascript
复制
   # inputs has shape [batch, 224, 224, 3]
   with slim.arg_scope(resnet_v2.resnet_arg_scope()):
      net, end_points = resnet_v2.resnet_v2_101(inputs, 1000, is_training=False)

介绍ResNet V2的论文在这一点上有点混乱。它们提供了一个表,但我不清楚“训练作物”(224x224)还是“测试作物”(320x320)是推断图像大小。

模型图本身并没有提供任何帮助;根据卷积和池的位置,它似乎与输入图像大小一样有效。

任何帮助都将不胜感激。

更新:-我运行了少量的实验,并似乎得到了更好的分类结果与224x224输入图像。

EN

回答 1

Stack Overflow用户

发布于 2020-06-20 10:09:17

官方网站上写着输入的大小

  1. VGG16,VGG19和ResNet :224*224
  2. Xception:299*299
票数 2
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43922308

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档