我在IDE VS2013中使用OpenCV2(3.0.0)。我的要求是我们有一个三维点云数据(参数XYZ),我可以将那个三维点云转换成一个2d图像,并且我们可以使用Opencv将云数据转换成图像而不需要链接PCL。
有可能吗??
如果可能的话,谁能建议我如何转换,用一个OpenCV的示例代码。
任何建议都是有帮助的,谢谢。
发布于 2016-11-18 14:30:58
问题并不是很清楚。你所说的将点云“转换”为2d图像是什么意思?
我会假设你所说的“转换”是指项目。
在opencv中,点云或任何3d点都可以使用:reconstruction.html#projectpoints将投影到2d图像上。
这是基于针孔相机模型的,看看这里的例子:COPIES/FUSIELLO4/tutorial.html
你也可以看看这个问题:OpenCV's projectPoints function
切记你无法重建原始的3d数据(因为深度信息在投影过程中丢失了)。
为了简化事情,我们可以使用一个任意焦距的“完美”投影模型(没有镜头畸变)(如果你想显示图像,你需要根据你的数据来处理焦距,这样投影点的值就不会太高,例如不超过2048,也就是2k分辨率图像的宽度)。
下面是一个例子:
#include <string>
#include "opencv2/opencv.hpp"
using namespace cv;
using namespace std;
std::vector<cv::Point3d> Generate3DPoints();
int main(int argc, char* argv[])
{
// Read 3D points
std::vector<cv::Point3d> objectPoints = Generate3DPoints();
std::vector<cv::Point2d> imagePoints;
int f = 5; //focal length
for (unsigned int i = 0; i < objectPoints.size(); i++)
{
cv::Point3d orig_point = objectPoints[i];
imagePoints.push_back(cv::Point2d(
f*orig_point.x / orig_point.z, //x' = f*x/z
f*orig_point.y / orig_point.z) //y' = f*y/z
);
}
}
std::vector<cv::Point3d> Generate3DPoints()
{
std::vector<cv::Point3d> points;
double x, y, z;
x = .5; y = .5; z = -.5;
points.push_back(cv::Point3d(x, y, z));
x = .5; y = .5; z = .5;
points.push_back(cv::Point3d(x, y, z));
x = -.5; y = .5; z = .5;
points.push_back(cv::Point3d(x, y, z));
x = -.5; y = .5; z = -.5;
points.push_back(cv::Point3d(x, y, z));
x = .5; y = -.5; z = -.5;
points.push_back(cv::Point3d(x, y, z));
x = -.5; y = -.5; z = -.5;
points.push_back(cv::Point3d(x, y, z));
x = -.5; y = -.5; z = .5;
points.push_back(cv::Point3d(x, y, z));
for (unsigned int i = 0; i < points.size(); ++i)
{
std::cout << points[i] << std::endl << std::endl;
}
return points;
}https://stackoverflow.com/questions/40677116
复制相似问题