我想实现一个基于FPGA的实时立体视觉系统,用于远距离(高达100米)深度估计。
我已经决定在这个项目中使用IP摄像头(尽管我仍然不知道有没有其他类型的摄像头适合这个范围?)。
是否可以将IP摄像头的输出移植到fpga,然后进行相关的图像处理?多么?
如果您能提供任何信息,我将不胜感激。
发布于 2017-03-12 00:51:22
有可能,但不切实际,而且不太可能奏效。
从IP摄像机获取输入将要求您的FPGA设计包含一个完整的网络堆栈,以便向每个摄像机发出HTTP请求、下载图像并对其进行解码。与FPGA相比,这更多的是微控制器的工作;在硬件中实现它将非常耗时。
您还可能遇到问题,因为IP摄像机往往相对较慢,并且无法同步。也就是说,如果您同时从两个摄像头请求图像,则不能保证您得到的图像将是同时拍摄的。
不要使用IP摄像机来完成此任务。他们不适合这个目的。使用数码输出的相机模块;它们很容易买到,而且可能比IP相机便宜。
发布于 2020-01-01 18:38:11
我假设你有一个中端的FPGA ..然后我会说您可能的选择:-您可以从IP摄像头一次捕获一个帧。如果它输出VGA视频..使用hsync、Vsync ... -如果您使用的是Dev。如果使用SDram工具包,FPGA将与DSP接口,这使您能够在其中保存几个帧(肯定不是整个视频)-您可以在Fpga中使用可用的DSP切片进行简单的图像处理算法。如果您正在使用xilinx,请检查DSP48e1或DSP48A1
发布于 2018-11-08 10:09:38
也许你应该考虑使用带有SDI接口的相机。SDI是一种常见的标准视频接口,设计用于长达120米、超过75欧姆的同轴电缆。
SMPTE标准ST425-4描述了在50/60 Hz的FullHD中通过双3G-SDI链路传输立体摄像机流。
如果您可以使用1080i,那么单个3G-SDI链路就足够了(在ST 425-2中描述)。
https://stackoverflow.com/questions/42737467
复制相似问题