首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >用神经网络估计图像中的距离

用神经网络估计图像中的距离
EN

Stack Overflow用户
提问于 2016-04-03 19:09:14
回答 1查看 3.8K关注 0票数 5

用神经网络估计静止图像或视频流中的距离可行吗?

我有一个激光测距仪,提供视频输出以及距离测量。然而,距离测量需要将激光照射到环境中,这并不总是理想的或允许的。我想有一个选择,把这个转变为“被动”模式,图像被输入到一个神经网络,然后提供一个距离估计,而不需要激活激光。网络最初将在主动模式下接受来自游侠查找器的image+distance对的训练。

我不是神经网络方面的专家,虽然Google发现神经网络在图像分类和姿态估计方面有很多用途,但我找不到任何现有的距离估计技术。这看起来可行吗,还是我在浪费时间?一个基本的前馈网络,每N像素一个输入就足够了,还是我需要一个不同的架构?

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2016-04-03 20:52:02

是的,这是可能的,假设你有真实的训练数据。早在2006年,就有关于这个问题的出版物,但使用的是马尔可夫随机场。你可以读这里。最近是用卷积神经网络深卷积神经场做的。这三个例子估计了图像上每一个像素的深度,因此他们需要对每一个像素进行正确的测量。

如果你使用的是平面测距仪,那么根据你的激光分辨率,你的图像中的各个列都有正确的深度。这可能意味着您需要使用来自图像的一行像素来训练NN,而不是完整的图像。为了充分提取场景深度,人们通常使用双目相机或类似Kinect的东西(当然只是为了训练)。

票数 7
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/36389893

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档