这是将两个2D点转换为一个3D的正确方法吗?

时间:2012-05-09 14:54:45

标签: transform camera-calibration

有一个移动的物体,其imagePoints我在MSVSC ++的Windows 7 PC上有两个MS LifeCams两次同身。我想确定这两个3D点之间的距离。我正在使用的步骤显示出来。我几乎没有详细说明,因为现在我想知道我是否正在使用正确的OCV 2.3.1功能。

)1。校准每个相机的相机

输出:每个摄像机的cameraMatrix和distCoeffs

)2。 simpleBlobDetect一次为每个相机两次

 output: point 1 (cam1x1, cam1y1) (cam2x1, cam2y1)

 output: point 2 (cam1x2, cam1y2) (cam2x2, cam2y2)

3)3。 stereoCalibrate

 output: R, T, E, & F

)4。 stereoRectify

this doesn't actually rectify any images but produces R1,R2,P1 & P2 so it can be done

)5。 undistortPoints

output: vector of Point2f objects in rectified image

)6。 perspectiveTransform

 output: vector of Point3f objects

这些正确的步骤是从30k英尺开始的吗?

感谢。 查尔斯

0 个答案:

没有答案
相关问题