首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >机器学习: RGBD流和相关组件的处理问题

机器学习: RGBD流和相关组件的处理问题
EN

Stack Overflow用户
提问于 2019-01-13 18:30:57
回答 1查看 342关注 0票数 1

我想实验机器学习(特别是CNN)在对齐的RGB和深度流的英特尔RealSense或Orbbec天文相机。我的目标是做一些对象识别,并在输出视频流中高亮/标记它们(作为起点)。

但是,在阅读了许多文章之后,我仍然对涉及到的框架以及数据是如何通过涉及的软件组件从摄像机中流动感到困惑。我只是不能拍到一张高水平的照片。

这是我对处理流程的假设:

传感器=>驱动程序=> libRealSense / Astra => TensorFlow

问题

  • 我对处理的假设正确吗?
  • Orbbec提供了一个额外的Astra OpenNI SDK,除了Astra SDK,因为英特尔有包装器(?)OpenCVOpenNI。我什么时候或者为什么需要这个额外的库/支持?
  • 最快的开始方式是什么?我更喜欢C#而不是C++
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2019-01-13 19:43:58

  • 您的假设是正确的:数据采集流程是:sensor -> driver -> camera library -> other libraries built on top of it (参见OpenCV support for Intel RealSense)-> captured image.,一旦您获得了图像,当然您可以做任何您想做的事情。
  • 各种库允许您轻松地使用设备。特别是,与Intel RealSense支持一起编译的RealSense允许您使用OpenCV标准数据采集流,而无需担心来自传感器的图像格式和英特尔库使用的图像格式。10/10使用这些库,它们会使你的生活更轻松。
  • 您可以从Intel RealSense (https://github.com/IntelRealSense/librealsense/tree/master/wrappers/opencv)的RealSense包装器文档开始。一旦您能够捕获RGBD映像,您就可以使用tf.data为您的模型创建输入管道,并在tensorflow中开发在RGDB映像上使用can的任何应用程序(只需谷歌它并查看arxiv,以了解可能的应用程序)。

一旦您的模型经过了培训,只需导出经过训练的图表并将其用于推理,您的管道就会变成:sensor -> driver -> camera library -> libs -> RGBD image -> trained model -> model output

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/54171922

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档