我想实验机器学习(特别是CNN)在对齐的RGB和深度流的英特尔RealSense或Orbbec天文相机。我的目标是做一些对象识别,并在输出视频流中高亮/标记它们(作为起点)。
但是,在阅读了许多文章之后,我仍然对涉及到的框架以及数据是如何通过涉及的软件组件从摄像机中流动感到困惑。我只是不能拍到一张高水平的照片。
这是我对处理流程的假设:
传感器=>驱动程序=> libRealSense / Astra => TensorFlow
问题
Astra OpenNI SDK,除了Astra SDK,因为英特尔有包装器(?)OpenCV和OpenNI。我什么时候或者为什么需要这个额外的库/支持?发布于 2019-01-13 19:43:58
sensor -> driver -> camera library -> other libraries built on top of it (参见OpenCV support for Intel RealSense)-> captured image.,一旦您获得了图像,当然您可以做任何您想做的事情。tf.data为您的模型创建输入管道,并在tensorflow中开发在RGDB映像上使用can的任何应用程序(只需谷歌它并查看arxiv,以了解可能的应用程序)。一旦您的模型经过了培训,只需导出经过训练的图表并将其用于推理,您的管道就会变成:sensor -> driver -> camera library -> libs -> RGBD image -> trained model -> model output。
https://stackoverflow.com/questions/54171922
复制相似问题