首页 > 其他分享 >基于OpenCV做“三维重建”(3)--相机参数矩阵

基于OpenCV做“三维重建”(3)--相机参数矩阵

时间:2022-12-25 12:04:04浏览次数:35  
标签:002 -- cols 003 OpenCV 001 dt data 三维重建

        通过前面的相机标定,我们能够获得一些参数模型。但是这些相机的参数矩阵到底是什么意思?怎样才能够判断是否正确?误差都会来自哪里?这里就必须要通过具体实验来加深认识。采集带相机参数的图片具有一定难度,幸好我之前有着不错的积累—这里一共有两款数据集,一款来自《OpenCV计算机视觉编程攻略》第3版,家里面好像还有一款微单可以进行采集,这样我们可以进行交叉比对,看一看获得的参数是否符合实际情况:



数据集1 

        


基于OpenCV做“三维重建”(3)--相机参数矩阵_xml


数据集2



基于OpenCV做“三维重建”(3)--相机参数矩阵_xml_02

既然是做实验,我想初步计划一下。首先是要明确我能够获得那些东西?然后是比较这些东西是否真的像书上说的那样符合实际?然后我会添加一些干扰,看一看在有错误数据的情况,这些东西如何变化?最后是一个小结。


1、明确我能够获得那些东西?


通过前面的代码,我们大概是准备获得这样的东西:


​​<       ?xml version       =
"1.0"
?
>

<opencv_storage >
<Intrinsic type_id = "opencv-matrix"
>

<rows >
3
<
/rows
>

<cols >
3
<
/cols
>

<dt >d
<
/dt
>

<data >

1. 3589305122261344e
+
003
0.
5.
7505355544729957e
+
002

0. 1.
3565816672769690e
+
003
6.
0423226535731465e
+
002

0. 0.
1.

< /data
>

< /Intrinsic >


<Distortion type_id = "opencv-matrix"
>

<rows >
1
<
/rows
>

<cols >
14
<
/cols
>

<dt >d
<
/dt
>

<data >

9. 5113243912423840e
+
001
1.
4262144540955842e
+
003

5. 2119492051277685e
-
003
2.
8847713358900241e
-
003

1. 2859720255043484e
+
002
9.
5182218776001392e
+
001

1. 4741397414456521e
+
003
6.
8332022963370434e
+
002
0.
0.
0.
0.
0.
0.
<
/data
>
<
/Distortion
>

< /opencv_storage >​​




从结果上看,我将获得这两个矩阵。前面那个是相机内参矩阵,后面那个是外参数。那么在一组图片中,内参肯定是不变的;后面外参肯定是变化的。但是这里也有很多疑问。




基于OpenCV做“三维重建”(3)--相机参数矩阵_5e_03



那么具体来看结果, 对于第一组图片来说,我们获得的结果为:

​​<        ?xml version        =        "1.0"
?
>

<opencv_storage >
<Intrinsic type_id = "opencv-matrix" >

<rows > 3
<
/rows
>

<cols > 3
<
/cols
>

<dt >d <
/dt
>

<data >
4. 0927176647992695e +
002
0.
2.
3724719115090161e
+
002​​

​​ 0. 4. 0870629848642727e +
002
1.
7128731207874495e
+
002
0. 0. 1.
< /data > <
/Intrinsic
>

<Distortion type_id = "opencv-matrix" >

<rows > 1
<
/rows
>

<cols > 14
<
/cols
>

<dt >d <
/dt
>

<data >
1. 8631118716959048e +
001
-
5.
0639175384902096e
+
001

- 5. 2453807582033300e
-
003
-
9.
2620440694993842e
-
003

5. 2367454865598742e +000
1.
9002289932447418e
+
001

- 4. 8948501055979285e
+
001
-
6.
5115263545215851e
-
001
0.
0.
0.
0.
0.
0.
<
/data
>
<
/Distortion
>

< /opencv_storage >​​







​​< ?xml version = "1.0"
?
>

<opencv_storage >
<Intrinsic type_id = "opencv-matrix" >

<rows > 3
<
/rows
>

<cols > 3
<
/cols
>

<dt >d <
/dt
>

<data >
3. 9136489375791234e +
003
0.
2.
6879080836687035e
+
003​​

​​ 0. 3. 9811430968074164e +
003
1.
9454067884808153e
+
003
0. 0. 1.
< /data > <
/Intrinsic
>

<Distortion type_id = "opencv-matrix" >

<rows > 1
<
/rows
>

<cols > 14
<
/cols
>

<dt >d <
/dt
>

<data >
2. 5259392493942739e -
002
-
3.
2418875955674309e
-
001

3. 6376246418718853e -
004
3.
2526045276898190e
-
003

- 8. 1692713459156296e
-
002
2.
5694845194956913e
-
002

4. 7826938999253371e -
001
-
1.
3315729771950511e
+000
0.
0.
0.
0.
0.
0.
<
/data
>
<
/Distortion
>

< /opencv_storage >


对于第二组图片来说:



2、这些东西是否真的像书上说的那样符合实际?




对于第一套图片来说,看它的内参矩阵:


​​<data       >       
4. 0927176647992695e +
002
0.
2.
3724719115090161e
+
002

0. 4. 0870629848642727e
+
002
1.
7128731207874495e
+
002

0. 0. 1.

< /data >​​




解析一下,fx = fy = 409 ; U0=237  V0 = 171,这个是代码计算值。从实际情况上来看,



基于OpenCV做“三维重建”(3)--相机参数矩阵_数据集_04


标准中间为 268,178,这个和237,171是比较符合的。



对于其它信息




基于OpenCV做“三维重建”(3)--相机参数矩阵_xml_05



这个焦距和我们计算出来的东西差距较大,如何比对?进一步研究,获得这个相机的参数:




基于OpenCV做“三维重建”(3)--相机参数矩阵_数据集_06


可以获得,它的传感器尺寸为23.5mm X 15.7mm,那么像素宽度分别为0.0438(=23.5/536)和0.044,反过来算焦距为17.9,这个比较接近。



书中给出的资料肯定是自己选择过的,那么我们自己重新采集一套 图片来说,那么它的固有参数为:



基于OpenCV做“三维重建”(3)--相机参数矩阵_数据集_07





基于OpenCV做“三维重建”(3)--相机参数矩阵_xml_08



基于OpenCV做“三维重建”(3)--相机参数矩阵_xml_09


获得的结果:



​​<data       >       
3. 9136489375791234e + 003 0. 2. 6879080836687035e + 003

0. 3. 9811430968074164e + 003 1. 9454067884808153e + 003

0. 0. 1.
< /data >​​

翻译一下,fx = 3913.6 fy=3981.1 U0=2687.9 V0=1945.4


先看U V, 5456/2 = 2728 3632/2=1816,这样的话,差距在1.5%,这个差距看上去比较大,但是相对值比书中提供的数据要小。


而对于焦距来说, 像素宽度分别为0.00425(= 23.2 /5456)和0.0386


算出来焦距为16.64和16.88,这个和16的差距也是比较合适的。





3、添加一些干扰,容错性如何?



最好的方法,是在有固定相机的情况下,重新采集一套图片,这个对于读者来说,如果有兴趣,可以来做。



4、小结



通过比较,可以发现一下几个特点:


1、书本上采集的图片,其角度范围更为广泛。所以说书上的采集方法对于我们后面做实际采集有指导意义;


2、棋盘的大小和最后是否能够产生良好结果关系不大,所以一个合适大小的棋盘就可以;


此外:


3、特别是对于视野比较广的情况,应该优先想出高效解决方法。我认为视场越大,误差越大;


4、对于大照片的处理,本身就是一个比较复杂的问题:因为像素比较高,所以处理起来比较慢;而又不能通过压缩之类的方法进行预处理,所以会有比较多的问题。目前还有没有很好解决方法;



此外,你还必须考虑标定的过程中失败的情况;还必须考虑采用什么模式能够让标定的效果最好。



感谢阅读至此,希望有所帮助。

标签:002,--,cols,003,OpenCV,001,dt,data,三维重建
From: https://blog.51cto.com/jsxyhelu2017/5968069

相关文章