首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >机器视觉技术的高动态范围与标准动态范围的优劣比较研究?

机器视觉技术的高动态范围与标准动态范围的优劣比较研究?
EN

Stack Overflow用户
提问于 2019-12-24 16:19:30
回答 1查看 49关注 0票数 1

我的直觉说,一幅高动态范围的图像将为各种图像分割和其他低水平视觉算法提供更稳定的特征和边缘,但如果需要使用曝光融合之类的方法来获得HDR,而不是从硬件中获得的话,它也可以用更多的比特导致稀疏的特征,以及生成HDR所涉及的额外成本。

谁能指出对这一主题的任何研究,理想的情况是,如果已经对各种机器视觉技术使用标准和高动态范围图像进行了比较研究,那将是很好的。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-12-28 06:04:36

由于高动态范围(HDR)图像编码从不同曝光级别的图像中获取的信息,它们为计算机视觉任务(如图像分割)提供了比传统LDR图像序列更多的视觉信息。

HDR输入图像有助于提高视觉模型的准确性,具有更好的特征学习和低水平特征提取,因为与LDR图像相比,HDR图像中的饱和区域(过度暴露或低暴露区域)较少。

然而,在使用HDR输入方面存在某些挑战,例如处理HDR图像所需的计算资源增加,以及由于其精度提高而避免学习稀疏特征所需的数据。

这是一篇研究文章,比较LDR和HDR输入的机器视觉任务:https://www.hindawi.com/journals/js/2017/7321950/。引用研究文章的话说:“结果表明,与相比,使用HDR图像可以使检测性能提高到30%以上的”。

下面是几篇你可能觉得有用的相关研究文章:

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/59471303

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档