光电工程  2019, Vol. 46 Issue (12): 180677      DOI: 10.12086/oee.2019.180677     
基于单应性矩阵的线结构光系统简易标定方法
平乙杉 , 刘元坤     
四川大学电子信息学院,四川 成都 610065
摘要:提出通过构造光刀平面,采用单应性矩阵的计算方法,完成线结构光系统标定。该方法通过在相机景深范围内平移标定靶,获取不同位置的光刀图像和靶标图像,从同一位置的两幅图中提取出特征点图像,构成一个光刀平面。按照相机针孔成像模型,可以建立光刀平面与相机系统的单应性矩阵关系,并计算出该矩阵,从而完成标定。在测量时,只需根据提取出的光刀图像像素坐标,结合单应性矩阵即可得到待测物体坐标,再结合平移设备,便可完成对整个物体的测量。实验证明,线结构光系统标定最大残差小于0.05 mm,标准差小于0.02 mm,两个面之间的测量距离相对误差低于1.3%。整个系统标定过程简单,适用于快速标定线结构光系统和工业化测量。
关键词机器视觉    线结构光    单应性矩阵    标定    光刀平面    
An easy line-structured light system calibration method based on homography matrix
Ping Yishan, Liu Yuankun     
School of Electronics and Information Engineering, Sichuan University, Chengdu, Sichuan 610065, China
Abstract: An easy line-structured light system calibration method is proposed, which is based on the constructed light plane and homography matrix. In this method, the sequential images of the light plane and calibration target are obtained at different positions by shifting a translating target plane within the depth of camera's field, then a series of feature points would be extracted from these images to form a light plane. Then, a homography matrix, which is the mapping relationship between the light plane and the image plane of camera, can be calculated. In the experiment, the 3D data can be obtained by using this homography matrix when image coordinates of the light plane are extracted in an arbitrary image. Then the entire object can be measured by using a translation device. For the real data of calibration, the maximum residual error is less than 0.05 mm, standard deviation is less than 0.02 mm, the relative error of the measured distance between the two planes is less than 1.3%. The proposed method can make the entire calibration process easy and flexible to use.
Keywords: machine vision    line-structured light    homography matrix    calibration    light plane    

1 引言

在众多主动视觉测量技术中基于激光三角法的三维传感技术由于具有结构简单、成本低、非接触、操作灵活、测速快、精度适中以及光条图像信息易于提取等优点,在机器视觉、反向工程、实物仿形等领域有着广阔的应用前景[1-3]。此类技术在计算待测物体的三维形貌信息时,由线光源投射线结构光到被测物体的表面,相机从一定角度获取含线结构光的图形信息,该图形信息即包含物体高度信息。若已知相机与线结构光之间的相对位置关系就可以解调出物体的表面形貌[4-5],而如何得到相对位置关系即称为系统标定,这是整个三维测量中的一个核心环节,将会直接影响到测量的精度[6]

目前的线结构光系统标定方法可以分为两类,第一类是先完成相机标定,再进行光刀平面方程标定。其中,相机透视模型标定方法相对成熟[7],如Zhang[8]提出的方法解决了相机内部参数现场标定的问题。光平面的标定方法主要有拉丝标定法[9]、齿形靶标定法[10]和基于三维靶标的交比不变性的标定方法[11]和消隐点法[12]等,这类标定方法需要昂贵的辅助设备、且需预先标定相机的内参数和相机与光平面的位置关系、实验步骤繁琐。第二类是将线结构光系统参数作为一个整体,通过拟合的方式得到系统参数。如张广军等[13-14]利用BP神经网络基于样本训练和学习的方式,建立二维图像坐标与三维空间坐标之间的映射关系,实现了结构光视觉系统的直接标定。Dipanda等[15-16]通过使用遗传算法建立二维图像坐标与三维空间坐标之间的关系实现传感器标定。邹媛媛等[17]提出了一种基于支持向量机方法建立待标定点图像坐标与其对应的三维空间坐标之间的映射模型。这些方法都不需要标定相机的参数和光刀平面方程,但算法复杂、且需要大量的数据样本。

为了克服在上述方法中存在的问题,本文提出一种基于单应性矩阵的线结构光系统标定方法,该方法通过在相机景深范围内平移设备移动标定平面,提取每次光刀平面与标定平面的交线,通过多次移动后得到一系列交线,而这些交线正好构成一个光刀平面,该平面与图像平面的对应关系表现为平面与平面之间的映射(Homography)。当计算出单应性矩阵,建立起虚拟特征平面与相机图像平面的映射关系,便可完成线结构光系统参数的标定。该标定方法仅需获取2幅及2幅以上不同位置的光刀图像,不需要预先标定相机内参数,也不需要标定光刀平面方程,方法简单、快速,精度高,成本低。

2 原理 2.1 线结构光系统标定

线结构光传感器的数学模型如图 1所示。其中,Oc-XcYcZc为摄像机坐标系,点Oc表示坐标系原点,OcZc为摄像机光轴。O-uv表示相机图像坐标系,该坐标系原点O定义在摄像机像平面的左上角。

图 1 线结构光传感器数学模型 Fig. 1 Mathematic model of line-structured light sensor

在相机针孔成像模型下,假设点p为光刀平面与被测物体表面相交曲线上的一点,点p在世界坐标系下的坐标为${{\mathit{\pmb{M}}}} = ({X_{{\rm{w}}i}}, {Y_{{\rm{w}}i}}, {Z_{{\rm{w}}i}})$,其齐次坐标为${{\tilde {\mathit{\pmb{M}}}}} = ({X_{{\rm{w}}i}}, {Y_{{\rm{w}}i}}, {Z_{{\rm{w}}i}}, 1)$,像点p'在图像坐标系下的坐标为${\mathit{\pmb{m}}} = ({u_i}, {v_i})$,齐次坐标表示${{\tilde {\mathit{\pmb{m}}}}} = ({u_i}, {v_i}, 1)$。根据直接线性变换,将像点和物点的成像几何关系在齐次坐标下写成透视投影矩阵的形式:

$s\left[ {\begin{array}{*{20}{c}} {{u_i}} \\ {{v_i}} \\ 1 \end{array}} \right] = {\mathit{\pmb{A}}}({\mathit{\pmb{R}}}\;\, {\mathit{\pmb{t}}})\left[ {\begin{array}{*{20}{c}} {{X_{wi}}} \\ {{Y_{wi}}} \\ {{Z_{wi}}} \\ 1 \end{array}} \right], $ (1)

式中:s为未知尺度因子,矩阵A为相机的内参数矩阵,R为3×3单位正交旋转矩阵,t为3×1的平移矢量,矩阵AR的具体形式为

${\mathit{\pmb{A}}} = \left[ {\begin{array}{*{20}{c}} {{f_x}}&\gamma &{{u_0}} \\ 0&{{f_y}}&{{v_0}} \\ 0&0&1 \end{array}} \right], $ (2)
${\mathit{\pmb{R}}} = [\begin{array}{*{20}{c}} {{{\mathit{\pmb{r}}}_{\rm{1}}}}&{{{\mathit{\pmb{r}}}_{\rm{2}}}}&{{{\mathit{\pmb{r}}}_{\rm{3}}}} \end{array}], $ (3)

式中:fxfy分别为u轴和v轴的尺度因子,γ为倾斜因子,在理想情况下,图像坐标系中uv两个坐标轴,此时γ=0。u0v0为光轴中心的图像坐标即主点坐标。旋转矩阵R的第j(j=1, 2, 3)列元素由rj表示。将式(2)、式(3)代入式(1)得:

$s\left[ {\begin{array}{*{20}{c}} {{u_i}} \\ {{v_i}} \\ 1 \end{array}} \right] = {\mathit{\pmb{A}}}\left[ {\begin{array}{*{20}{c}} {{\mathit{\pmb{r}}_1}}&{{\mathit{\pmb{r}}_2}}&{{\mathit{\pmb{r}}_3}}&t \end{array}} \right] \cdot \left[ {\begin{array}{*{20}{c}} {{X_{{\rm{w}}i}}} \\ {{Y_{{\rm{w}}i}}} \\ {{Z_{{\rm{w}}i}}} \\ 1 \end{array}} \right]。$ (4)

在标定过程中,光刀平面与二维标靶相交可以得到包含一系列在特征线上的特征点,在相机景深范围内,靶标平面沿着Zw方向移动,每个位置均可提供一条特征线,而多条特征线可组合为一个虚拟特征平面,此平面与光刀平面重合,若世界坐标系的XwOZw面与光刀平面重合,Ywi=0,则式(4)可以改写为

$ s\left[ {\begin{array}{*{20}{c}} {{u_i}} \\ {{v_i}} \\ 1 \end{array}} \right] = {\mathit{\pmb{A}}}\left[ {\begin{array}{*{20}{c}} {{{\mathit{\pmb{r}}}_1}}&{{{\mathit{\pmb{r}}}_2}}&{{{\mathit{\pmb{r}}}_3}}&t \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{X_{{\rm{w}}i}}} \\ 0 \\ {{Z_{{\rm{w}}i}}} \\ 1 \end{array}} \right]\\ \;\;\;\;\;\;\;\;\;\;\;\; {\rm{ = }}{\mathit{\pmb{A}}}\left[ {\begin{array}{*{20}{c}} {{{\mathit{\pmb{r}}}_1}}&{{{\mathit{\pmb{r}}}_3}}&{\mathit{\pmb{t}}} \end{array}} \right]\left[ {\begin{array}{*{20}{c}} {{X_{{\rm{w}}i}}} \\ {{Z_{{\rm{w}}i}}} \\ 1 \end{array}} \right], $ (5)

其中:Xwi由靶标上特征点的列方向位置提供,Zwi来自于平移设备当前位置信息。若仍采用M来表示靶标平面上的点,则齐次坐标形式为${{\tilde {\mathit{\pmb{M}}}}} = {[{X_{{\rm{w}}i}}, {Z_{{\rm{w}}i}}, 1]^{\rm{T}}}$,则靶标平面上的点M与对应图像点m之间的对应关系可表示为一个单应性矩阵H[8],即:

$ s\tilde {\mathit{\pmb{m}}} = {\mathit{\pmb{H}}}\tilde {\mathit{\pmb{M}}}, $ (6)

其中${\mathit{\pmb{H}}}{\rm{ = }}{\mathit{\pmb{A}}}[\begin{array}{*{20}{c}} {{{\mathit{\pmb{r}}}_1}}&{{{\mathit{\pmb{r}}}_3}}&{\mathit{\pmb{t}}} \end{array}]$为一个3×3的矩阵。在文献[8]中,一张平面靶标图上至少4个非共线的点可以获得一个单应性矩阵H,而本文中的单应性矩阵是光平面与图像平面之间形成的虚拟特征平面上二维图像点与三维空间点的映射关系,所以根据式(6),在拍摄2幅以上图像至少获取非共线的4个点后,若已知标定特征点的世界坐标(XwiZwi,1)及其图像坐标(uivi,1),便可计算出单应性矩阵H,从而完成系统标定[8]

2.2 线结构光系统测量

由于在线结构光系统中,仅仅需要考虑线结构光光刀平面与像平面的映射关系,因此不必像常规标定中,先提取相机内参数,再计算外参数,而实际上一旦确定单应性矩阵H后,即可用于测量物体三维信息。在测量中,每次拍摄均可获取一幅图像,从中提取待测点像素坐标,便可根据单应性矩阵计算出世界坐标XwiZwi,若H-1=[h11 h12 h13h21 h22 h23h31 h32 h33],其计算公式可以从式(6)得到:

$\left\{ \begin{gathered} {X_{{\rm{w}}i}}{\rm{ = }}\frac{{{u_i}{h_{11}} + {v_i}{h_{12}} + {h_{13}}}}{{{u_i}{h_{31}} + {v_i}{h_{32}} + {h_{33}}}} \\ {Z_{{\rm{w}}i}}{\rm{ = }}\frac{{{u_i}{h_{21}} + {v_i}{h_{22}} + {h_{23}}}}{{{u_i}{h_{31}} + {v_i}{h_{32}} + {h_{33}}}} \\ \end{gathered} \right.。$ (7)

式中:(uivi)为实测每个点的图像坐标,通过单次拍摄获取(XwiZwi),其世界坐标Ywi的位置信息则来自于每次扫描,即由平移设备提供。

3 实验与结果分析

实验系统如图 2所示,系统包括德国IDS2250CCD相机,分辨率为1600 pixels×1200 pixels,镜头焦距为16 mm、线激光器波长为650 nm且与CCD距离约为300 mm、两光轴夹角约为28°,卓立汉光TSA150-E电控精密平移台,移动精度为3 µm,以及特殊设计的标定靶标共同搭建线结构光三维测量系统。实验中应保证平移设备移动方向和标定平面垂直,与光刀平面平行。

图 2 线结构光三维测量系统 Fig. 2 Line-structured light three-dimension measurement system
3.1 标定靶设计及标定实验

特殊设计的平面标定靶左右两边分别为棋盘格,大小为10 mm,中间白色区域宽度为20 mm,标定中须确保线激光投射在中间白色区域。图 3为线结构光系统标定实验的流程图。

图 3 线结构光系统标定实验流程图 Fig. 3 The process for calibration of line-structured light system

控制相机的曝光时间,在同一位置分别获取有激光和无激光的两幅图像,首先用高斯滤波和大津阈值法对光刀图像进行预处理,以消除图像中无关的信息,恢复有用的真实信息。对高斯光束的分析,光条的横截面光强近似服从高斯分布,那么光条的中心为在光强分布的峰值点,用图像的灰度值作为权值提取线激光光条纹中心,即用灰度重心法提取光刀图像[18],如图 4(a)所示,利用最大似然法去掉一些明显的噪点,对剩余有效数据点进行直线拟合可得y=ax+b。然后用Harris角点提取算法[19]对无激光的标靶图像进行处理,提取棋盘格角点,如图 4(b)所示,再对同一行角点进行直线拟合得y=cx+d。由此可知:

$\left\{ \begin{gathered} y = ax + b \\ y = cx + d \\ \end{gathered} \right.。$ (8)
图 4 图像处理。(a)相机捕获的光刀图像;(b)角点提取;(c)特征点提取 Fig. 4 Image processing. (a) Image of light strip captured by CCD; (b) Corner points extraction; (c) Characteristic points extraction

所要提取的特征点即为两条拟合直线的交点,由式(8)可知交点坐标为((d-b)/(a-c), (d-b)/(a-c)×a+b),如图 4(c)所示,对拍摄的所有棋盘格图像和靶标图像进行类似处理,即可提取具有亚像素精度的特征点坐标,而世界坐标系的XwOYw平面就在标定靶平面上,以第一幅光刀图像在列方向上第一个特征点为世界坐标系的原点,因此可以得到每个点对应的Xw,而Zw值则由平移标定靶(向Zw方向移动)步进量提供,实验中步进量为10 mm,共获取不同位置的9幅光刀图像,每幅光刀图像在列方向提取15个特征点,则9幅光刀图像所提取的特征点如图 5所示,这些特征点在虚拟特征平面上。根据式(6)可计算得到单应性矩阵H,从而完成线结构光系统标定。

图 5 特征点图 Fig. 5 Image of characteristic point

实验中,已知上述特征点相对应的图像坐标和世界坐标,可测得的单应性矩阵H

${\mathit{\pmb{H}}} = \left[ \begin{gathered} {\rm{ - 0}}{\rm{.0102\;\;\;\;- 3}}{\rm{.1817\;\;\;793}}{\rm{.3240}} \\ {\rm{ 4}}{\rm{.9858\;\;\;\;- 0}}{\rm{.7313\;\;\;172}}{\rm{.6058}} \\ {\rm{ 0}}{\rm{.0000\;\;\;\;- 0}}{\rm{.0013\;\;\;\;1}}{\rm{.0000}} \\ \end{gathered} \right]。$

为了评价本文提出方法的标定精度,使用单应性矩阵H验证测量精度,与文献[20]提出的方法进行对比,文献[20]采用曲面拟合阶数为2阶。两种方法都不需标定相机和光刀平面,即可完成系统标定。分别用两种方法计算得到上述特征点XwZw方向的最大残差和均方差如表 1所示,两种方法计算得到特征点在XwZw方向误差分布图如图 6(a)6(b)所示。

表 1 XwZw方向标定精度比较 Table 1 Comparison of calibration accuracy between Xw and Zw directions
Methods The proposed method Ref.[20]
Directions Xw direction Zw direction Xw direction Zw direction
Maximum residual error/mm 0.0373 0.0416 0.0533 0.0385
Standard deviation/mm 0.0199 0.0197 0.0196 0.0239

图 6 误差分布。(a)本文提出的方法;(b)文献[20]的方法 Fig. 6 Error distribution. (a) The proposed method; (b) The method of Ref. [20]

由上面标定实验分析可知,参考文献[20]中采用2次拟合时,实际上是考虑了镜头畸变,而本方法采用的是线性模型,可以预期在考虑畸变参数后,本方法的精度还可以进一步提高。

3.2 测量实验

为了进一步验证深度方向的测量精度,扫描如图 7(a)所示的阶梯型标准件。由式(7)可知,当获得系统的标定参数单应性矩阵H,附加一维移动,便可以完成待测物体形貌的恢复。阶梯靶标每个台阶面的高均为20 mm,每个阶面上7条沟槽两两之间的中心距均为20 mm,通过精密加工保证阶梯靶标的特征参量误差小且为已知参数,其加工误差为0.01 mm。

图 7 三维阶梯实物及测量结果。(a)三维阶梯标准件;(b)采用本文提出的方法恢复物体三维形貌 Fig. 7 3D shape of the stepped object. (a) Workpiece of stepped object; (b) Restored result using the proposed method

采用本文提出的方法对阶梯靶标重建,阶梯靶标重建效果如图 7(b)所示,实验中Yw方向平移步进量为0.25 mm,每个面拍摄45幅光刀图像,对拍摄回来的光刀图像采用标定实验中处理光刀图像的方法进行处理。当线激光从一定角度投射在标准件表面上时,当标准件每个面的法向量方向与平移设备移动方向不垂直时,面与面之间Zw方向的数据直接相减后求平均值作为两个面之间的测量距离,将会引入系统误差。因此,这里先将每个面上的点对应的三维坐标数据拟合成一个平面,以每个面上所有点到拟合平面之间距离的均方根为评价每个面的平整度指标。表 2描述了重建阶梯靶标每个拟合平面的均方根(RMS)误差,均方根误差的大小反映了每个面的平整度情况。再计算其他面上的所有点到该拟合平面距离的平均值作为两个面之间的测量距离,表 3描述了两个面之间的测量距离及相对误差结果,dmn(m=1, ..., 4;n=2, ..., 5)表示第m个台阶面到第n个台阶面的距离。

表 2 每个面平整度误差 Table 2 Flatness error of each plane
Step No. 1 2 3 4 5
RMS error/mm 0.0481 0.0507 0.0544 0.0570 0.0632

表 3 深度方向测量精度分析 Table 3 Accuracy analysis of depth direction measurement
Distance/mm Reference distance/mm Calculated dis-tance/mm Relative error/%
d12 20 19.7499 1.25
d13 40 39.6151 0.96
d14 60 59.4493 0.92
d15 80 79.2831 0.90
d23 20 19.8481 0.76
d24 40 39.6655 0.84
d25 60 59.4820 0.86
d34 20 19.5776 1.05
d35 40 39.5776 1.06
d45 20 19.8218 0.89

通过对标准件的测量可以看出,本文所提方法对平面的测量精度可达0.063 mm,并且从表 2可知测量精度与阶梯到测量装置的距离有关,距离越近测量精度越高。从表 3可知,两个面之间的测量距离的相对误差低于1.3%。

5 结论

本文提出了一种基于光刀平面与单应性矩阵的线结构光系统标定,该方法无需标定相机模型的内、外参数,也不需要标定光刀平面方程,只需获取两幅以上不同位置的光刀图像,从中提取每个光刀图像中的特征点,即可构成一个光刀平面,从而根据光刀平面和相机像平面的单应性关系,计算出单应性矩阵即可完成系统标定。实验中,应尽量保证标定平面沿Zw移动(平移台移动方向和靶标平面垂直),若由此引入误差,可以用一个已知分布的物体进行测量,求出平移台移动方向和靶标平面之间的垂直误差角,将此夹角代入计算公式中,可校正因平移台移动方向和靶标平面不垂直引入的误差。在测量时,只需根据提取出的光刀图像坐标,结合单应性矩阵即可得到待测物体的空间坐标,再结合平移设备确定Yw方向的坐标,Yw方向的坐标由平移设备当前位置决定,便可完成整个物体测量。实验表明,线结构光系统标定最大残差小于0.05 mm,标准差小于0.02 mm,两个面之间的测量距离相对误差低于1.3%。该方法精度较高、操作简单、标定靶设计简单,成本低廉,因此适用于快速标定线结构光系统和工业化测量。

参考文献
[1]
Chen F, Brown G M, Song M M. Overview of three-dimensional shape measurement using optical methods[J]. Optical Engineering, 2000, 39(1): 10-22. [Crossref]
[2]
Li Y H, Zhou J B, Liu L J. Research progress of the line structured light measurement technique[J]. Journal of Hebei University of Science and Technology, 2018, 39(2): 115-124.
李玥华, 周京博, 刘利剑. 线结构光测量技术研究进展[J]. 河北科技大学学报, 2018, 39(2): 115-124 [Crossref]
[3]
Huang Z H, Luo Z, Li S, et al. Calibration method of large-arrange small-angle laser triangulation measuring system[J]. Opto-Electronic Engineering, 2012, 39(7): 26-30.
黄战华, 罗曾, 李莎, 等. 激光三角法大量程小夹角位移测量系统的标定方法研究[J]. 光电工程, 2012, 39(7): 26-30 [Crossref]
[4]
Huang Q, Wang Z Y, Li J L, et al. Automatic recognition of bolts on locomotive running gear based on laser scanner 3D measurement[J]. Opto-Electronic Engineering, 2018, 45(1): 170532.
黄潜, 王泽勇, 李金龙, 等. 基于三维扫描的机车走行部螺栓识别与定位[J]. 光电工程, 2018, 45(1): 170532 [Crossref]
[5]
Wu K H, Wang W J. Detection method of obstacle for plant protection UAV based on structured light vision[J]. Opto-Electronic Engineering, 2018, 45(4): 170613.
吴开华, 王文杰. 植保无人机结构光视觉的障碍物检测方法[J]. 光电工程, 2018, 45(4): 170613 [Crossref]
[6]
Wei Z Z, Li C Q, Ding B S. Line structured light vision sensor calibration using parallel straight lines features[J]. Optik, 2014, 125(17): 4990-4997. [Crossref]
[7]
Yang H, Cai N, Lin B, et al. Camera calibration method based on phase encoding for out-of-focus condition[J]. Opto-Electronic Engineering, 2018, 45(7): 180100.
杨浩, 蔡宁, 林斌, 等. 适用于离焦状态相机的相位编码标定方法[J]. 光电工程, 2018, 45(7): 180100 [Crossref]
[8]
Zhang Z Y. A flexible new technique for camera calibration[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2000, 22(11): 1330-1334. [Crossref]
[9]
Cui X M, Li C, Yuan D B, et al. Calibration of a line structured light vision measuring system based on the drawing method[J]. Science & Technology Review, 2014, 32(24): 64-67.
崔希民, 李聪, 袁德宝, 等. 基于拉丝法的线结构光视觉测量系统标定[J]. 科技导报, 2014, 32(24): 64-67 [Crossref]
[10]
Duan F J, Liu F M, Ye S H. A new accurate method for the calibration of line structured light sensor[J]. Chinese Journal of Scientific Instrument, 2000, 21(1): 108-110.
段发阶, 刘凤梅, 叶声华. 一种新型线结构光传感器结构参数标定方法[J]. 仪器仪表学报, 2000, 21(1): 108-110 [Crossref]
[11]
Chen T F, Zhao J B, Wu X. New calibration method for line structured light sensor based on planar target[J]. Acta Optica Sinica, 2015, 35(1): 0112004.
陈天飞, 赵吉宾, 吴翔. 基于共面靶标的线结构光传感器标定新方法[J]. 光学学报, 2015, 35(1): 0112004 [Crossref]
[12]
Wei Z Z, Shao M W, Zhang G J, et al. Parallel-based calibration method for line-structured light vision sensor[J]. Optical Engineering, 2014, 53(3): 033101. [Crossref]
[13]
Zhang G J, Wei Z Z, Sun Z W, et al. A method of structured light based 3D vision inspection using BP neural network[J]. Chinese Journal of Scientific Instrument, 2002, 23(1): 31-35.
张广军, 魏振忠, 孙志武, 等. 基于BP神经网络的结构光三维视觉检测方法研究[J]. 仪器仪表学报, 2002, 23(1): 31-35 [Crossref]
[14]
Zhao H J, Shi S G, Jiang H Z, et al. Calibration of AOTF-based 3D measurement system using multiplane model based on phase fringe and BP neural network[J]. Optics Express, 2017, 25(9): 10413-10433. [Crossref]
[15]
Dipanda A, Woo S, Marzani F, et al. 3-D shape reconstruction in an active stereo vision system using genetic algorithms[J]. Pattern Recognition, 2003, 36(9): 2143-2159. [Crossref]
[16]
Sun Y J, Zhang X F, Jian M W, et al. An improved genetic algorithm for three-dimensional reconstruction from a single uniform texture image[J]. Soft Computing, 2018, 22(2): 477-486. [Crossref]
[17]
Zou Y Y, Li P F, Zuo K Z. Field calibration method for three-line structured light vision sensor[J]. Infrared and Laser Engineering, 2018, 47(6): 617002.
邹媛媛, 李鹏飞, 左克铸. 三线结构光视觉传感器现场标定方法[J]. 红外与激光工程, 2018, 47(6): 617002 [Crossref]
[18]
Gan H, Zhang C, Li L, et al. Sub-pixel extraction of laser stripe in complex background[J]. Opto-Electronic Engineering, 2019, 46(2): 180457.
甘宏, 张超, 李林, 等. 复杂背景下激光条纹中心亚像素提取方法[J]. 光电工程, 2019, 46(2): 180457 [Crossref]
[19]
Harris C, Stephens M. A combined corner and edge detector[C]// Proceedings of the 4th Alvey Vision Conference, 1988: 147–151.
[20]
Zhang Q C, Su X Y, Zou X P. Calibration of 3-D measurement system using multi-sensor with line structured-illuminated laser[J]. Laser Technology, 2005, 29(3): 225-227, 232.
张启灿, 苏显渝, 邹小平. 多个线结构光传感器三维测量系统的校准[J]. 激光技术, 2005, 29(3): 225-227, 232 [Crossref]