在TesnorFlow-Slim中的ResNet V2文档中有一些不明确之处,我无法完全解决。
在README.md中,他们建议使用299x299输入映像:
^ ResNet V2模型使用盗梦空间预处理,输入图像大小为299 (使用eval_image_classifier.py时使用预处理_名称起始--eval_V2_ size 299 )。
但是,在注释这里中,它们使用的是224x224的图像:
# inputs has shape [batch, 224, 224, 3]
with slim.arg_scope(resnet_v2.resnet_arg_scope()):
net, end_points = resnet_v2.resnet_v2_101(inputs, 1000, is_training=False)介绍ResNet V2的论文在这一点上有点混乱。它们提供了一个表,但我不清楚“训练作物”(224x224)还是“测试作物”(320x320)是推断图像大小。
模型图本身并没有提供任何帮助;根据卷积和池的位置,它似乎与输入图像大小一样有效。
任何帮助都将不胜感激。
更新:-我运行了少量的实验,并似乎得到了更好的分类结果与224x224输入图像。
发布于 2020-06-20 10:09:17
官方网站上写着输入的大小
https://stackoverflow.com/questions/43922308
复制相似问题