Print

发布时间: 2019-10-16
摘要点击次数:
全文下载次数:
DOI: 10.11834/jig.180609
2019 | Volume 24 | Number 10




    图像分析和识别    




  <<上一篇 




  下一篇>> 





线结构光光条中心提取算法
expand article info 曾超, 王少军, 卢红, 孔聪
武汉理工大学机电工程学院, 武汉 430070

摘要

目的 线结构光视觉测量是一种利用可控光源和数字图像的主动视觉测量方法,光条中心提取是线结构光视觉测量的关键技术,直接影响到线结构光视觉测量的精度。传统灰度重心法只在图像的横向或纵向上计算光条的灰度重心,没有考虑光条的法线方向,精度较低。本文提出一种改进的光条中心提取算法,以期实现光条中心的精确提取。方法 在分析线结构光的光条灰度特性基础上,基于传统的灰度重心法,提出一种改进的两步提取算法。基于图像差分法从原始图像中分离出有效的线结构光光条,采用传统灰度重心法对光条中心进行粗提取;在粗提取的光条中心点处通过自定义的方向模板确定光条的法线方向,以粗提取的光条中心点为中心,沿法线方向采用灰度重心法进行二次提取,获取线结构光光条的中心。结果 本文采用CCD相机、镜头、线激光器及辅助机构搭建线结构光视觉系统,采用提出的算法对线激光器投影产生的直线型光条、非连续光条和弯曲光条的中心进行提取。通过光条中心提取实验获取的光条中心线的走向与光条的走向大致相同,符合预期的光条中心线。本文将Steger法作为评价标准,分别计算本文算法、传统灰度重心法与Steger法提取的光条中心的偏差,通过对比实验可知,本文算法提取的光条中心的偏差更小,并且程序运行时间比Steger法减少了3 s以上。结论 本文研究线结构光的光条中心提取算法,对传统灰度重心法进行改进,能够实现直线型光条、非连续光条和弯曲光条等不同形状光条的亚像素级中心提取,并且在保证较少的程序运行时间的同时,能够提高传统灰度重心法的光条中心提取精度。

关键词

线结构光; 亚像素级; 灰度重心法; 光条中心提取算法; 方向模板; 法线方向

Center extraction algorithm of line structured light stripe
expand article info Zeng Chao, Wang Shaojun, Lu Hong, Kong Cong
School of Mechanical and Electronic Engineering, Wuhan University of Technology, Wuhan 430070, China
Supported by: National Natural Science Foundation of China (51675393)

Abstract

Objective Machine vision continues to innovate with the development of computer technology. Line structured light vision is a three-dimensional vision method and an important branch of machine vision technology. Line structured light vision has been widely used in industrial fields, such as industrial manufacturing, food processing, target tracking, defect detection, and robotics because the light stripe has obvious characteristics in images and is easy to extract and the light beam is actively controlled. Line structured light vision measurement is an active method that utilizes a controllable light source and a digital image. The method also uses the spatial position information of the light source and combines with the digital image and processing method of machine vision to obtain the three-dimensional coordinate information of the object. The information is obtained by extracting the center line of the line structured light stripe. The point coordinates on the center line of the light stripe are obtained so the center extraction of line structured light stripe is the key technology of the measurement. The center extraction directly affects the measurement accuracy of the line structured light vision system. In a vision measurement system based on line structured light, the light stripe often shows a phenomenon in which the width is not uniform, the brightness is not concentrated, and the discreteness is larger due to the influence of the quality of the light source and the surface characteristics of the object. In this regard, the precision of the center extracted by conventional methods is difficult to ensure. The increasing application of line structured light vision measurement has led scholars to focus on ensuring the accuracy and rapidity of center extraction. Because of the precision of traditional gray-gravity method is lower, an improved center extraction algorithm is proposed for accurate extraction of the center of the light stripe to rapidly obtain the sub-pixel center coordinates of the light stripe. Method An improved center extraction algorithm is proposed on the basis of the analysis of the gray-scale characteristics of the line structured light stripe to achieve accurate extraction of the center of the light stripe. This method is commonly used in the center extraction algorithm of light stripe. The method scans the stripe line by line or column by column, the gray center of gravity of each line or column is calculated, and the gray-gravity coordinates is used as the coordinates of the center of the light stripe. The traditional gray-gravity method calculates the gray center of gravity only in the lateral or longitudinal direction of the image without considering the normal direction of the light stripe. This work improves the traditional gray-gravity method. The direction template is used to obtain the normal direction of the light stripe, and the variable width is used to solve the problem of uneven distribution of width of the light stripe. An improved two-step extraction algorithm is proposed to extract the center of the light stripe. First, the effective line structured light stripe is separated from the original image by image difference method, where the background image is subtracted from the original image. The center of the light stripe is roughly extracted by the traditional gray-gravity method. The normal direction at the center point of the light stripe is finally centered by custom direction template. The direction template consists of four matrices representing directions, corresponding to the four directions of the light stripe at the pixel level, including horizontal and vertical and tilted to the left by 45ånd to the right by 45°. Finally, the center of the rough extraction is taken as the center. The pixel points participating in the calculation are determined according to the width of the light stripe in the normal direction. The gray center of gravity is used for secondary extraction along the normal direction. Finally, the center of the line structured light stripe is obtained. Result A CCD camera, lens, line laser, and auxiliary mechanism are used to build a line structured light vision system. The structure of the laser and camera is that the former is perpendicular to the horizontal plane, and the latter is tilted relative to the laser. Line structured light is generated by the line laser, and the color CCD camera and the lens of fixed focus complete the collection of light stripe image. The line laser forms a straight light stripe, a discontinuous light stripe, and a curved light stripe by illuminating different objects. The proposed algorithm is used to extract the center of straight light stripe, discontinuous light stripe, and curved light stripe. Results of the center extraction are processed through MATLAB. In the center extraction experiment of the light stripe, the orientation of the acquired center line is approximately the same as that of the light stripe, which is in accordance with the expected center line of the light stripe. The proposed algorithm extracts the center of the light stripe closer to the center extracted by Steger method than that by traditional gray-gravity method. The running time of the algorithm is reduced by more than 3s than Steger method. Conclusion This paper investigates the center extraction algorithm of line structured light stripe and proposes an improved center extraction algorithm of line structure light stripe on the basis of traditional gray-gravity method. The method can realize the sub-pixel level center extraction of straight light stripe, discontinuous light stripe, and curved light stripe. While maintaining less running time of program, the proposed method exhibits higher accuracy for center extraction of light stripe than traditional gray-gravity method.

Key words

line structured light; sub-pixel level; gray-gravity method; center extraction algorithm of light stripe; direction template; normal direction

0 引言

近年来,线结构光[1]视觉广泛应用于非接触式测量[2-3]、缺陷检测[4]、目标跟踪[5]、机器人[6-7]等领域。在线结构光视觉测量系统中,精确提取数字图像中被目标物体表面调制的不规则形状的线结构光光条的中心,是获取目标物体3维信息的关键步骤[8]。作为非接触式测量装置,线结构光视觉系统能够有效地从目标物体获得表面数据,具有结构简单、成本低、精度高等优点。线结构光视觉系统的原理是将线激光投影到待测物体表面,然后根据相机捕获的光条图像和校准过程中的系统参数计算光条中心轮廓线的世界坐标。线激光器投影产生的光条通常具有一定的宽度,是否能够准确地提取光条中心是线结构光视觉测量的关键,其提取精度直接影响到线结构光视觉系统测量的精度[9-10]

随着线结构光视觉技术的发展,国内外许多研究人员对线结构光的光条中心提取算法进行了研究,目前最常用的算法包括极值法、灰度重心法[11-12]和基于Hessian矩阵的Steger法[13]等。最简单的光条中心提取算法是极值法,只需要选择具有极大灰度值的像素点作为光条的中心点,该算法运算速度较快,但当光条存在多个极大值点时无法精确定位光条中心点。基于Hessian矩阵的Steger法精度较高,但是运算量大[14],程序运行速度慢,在实时性要求高的测量系统中难以应用。灰度重心法的测量精度能够达到亚像素级,同时也能够实现快速测量[15-16],因此广泛应用于线结构光视觉测量系统中。

本文在分析线结构光光条灰度特性的基础上,基于传统的灰度重心法,提出一种改进的两步提取算法,希望实现光条中心的精确提取,并对算法的光条中心提取精度和程序运行时间进行了比较分析。

1 基本原理

1.1 光条灰度特性

线激光器投影到物体表面上形成激光光条,在理想情况下,光条截面的灰度呈对称的高斯分布[17-18],其光条截面灰度分布曲线的表达式为

$ G\left( x \right) = \frac{A}{{\sqrt {2{\rm{ \mathit{ π} }}\sigma } }}{{\rm{e}}^{ - \frac{{{{(x - \mu )}^2}}}{{2{\sigma ^2}}}}} $ (1)

式中,$ A$为幅值,$ \sigma$为标准差,$\mu $为均值,即表示光条中心。

由于被测物体本身的材质以及噪声等因素的影响,使得光条截面的灰度分布发生了变化,因此通过视觉系统采集的图像上光条截面的灰度值呈不对称的近似高斯分布。

本文采用波长为656 nm的红色线激光器作为激光光源,通过CCD相机采集如图 1所示的光条图像,通过MATLAB获取光条某一法向截面上的灰度分布曲线如图 2所示,曲线的最大值位置即为光条的中心点位置。从图 2中可以看到,远离光条中心点的像素点灰度值较小,越靠近光条中心点,像素点的灰度值越大,灰度值的分布近似服从高斯分布。

图 1 激光光条图像
Fig. 1 The light stripe image
图 2 光条截面灰度分布
Fig. 2 Gray distribution curve of light stripe

1.2 灰度重心法

灰度重心法是一种普遍使用的光条中心提取算法,该算法对光条进行逐列计算,把每一列计算的光条灰度重心的坐标作为该列光条的中心坐标。

灰度重心法的计算原理如下:设光条第$ j$列的灰度重心坐标为$ p\left( {{x_j}, j} \right)$,像素点$\left( {i, j} \right) $处图像的灰度值为$ I\left( {i, j} \right)$,设待处理的光条图像包含的像素点有$L $行,$ N$列,则坐标$ {{x_j}}$的求解计算为

$ {x_j} = \frac{{\sum\limits_{i = 1}^L I \left( {i, j} \right) \cdot i}}{{\sum\limits_{i = 1}^L I \left( {i, j} \right)}} $ (2)

式中,$ i=1, 2, \cdots, L ; j=1, 2, \cdots, N$。传统的灰度重心法能够实现光条中心的亚像素提取,处理速度较快,能够保证较好的实时性,但具有一定的局限性:

1) 传统灰度重心法只在图像的横向或纵向上计算光条的灰度重心,没有考虑光条的法线方向,对于在图像中近似横向或纵向分布的直线型光条能够保证较好的中心提取精度,但对于光条形状较复杂的图像,例如曲线分布的光条则无法保证中心提取的精度。

2) 传统灰度重心法为了提高算法的效率,通常将处理的光条宽度$L $设定为固定值,但由于普通线结构光激光器质量一般,以及物体表面材质和图像噪声的影响,使得线结构光光条无法保证宽度处处一致,此时固定的$L $值将不再适用。

2 光条中心提取算法

本文针对传统灰度重心法的局限性,提出一种改进的算法。首先通过图像差分法从原始图像中分离出有效的光条图像,然后采用传统的灰度重心法粗提取光条的中心点,在粗提取的光条中心点处通过自定义的方向模板确定出光条的法线方向,最后以粗提取的光条中心点为中心,沿法线方向采用灰度重心法进行二次提取,获取最终的光条中心点。

2.1 图像分割

通过CCD相机采集的光条图像,由于背景和目标光条同时出现在图像中,因此需要对光条图像进行预处理,分割线结构光光条和背景信息,以排除图像中的背景信息对光条中心提取的干扰,同时减少光条中心提取所需的计算量,缩短计算机程序的运行时间。

采用图像差分法剔除图像的背景信息,提取只包含线结构光光条的图像差分法[19]表达为

$ {I_l}(x, y) = {I_o}(x, y) - {I_b}(x, y) $ (3)

式中,$ {I_o}(x, y)$表示采集的包含背景信息和激光光条的图像的像素灰度值,${I_b}(x, y) $表示采集的只包含背景信息的图像的像素灰度值,$ {I_l}(x, y)$表示通过图像差分后获取的只包含激光光条的图像的像素灰度值。

图 3-图 5示例了线激光投影到目标物体的原始图像、背景图像以及图像差分后获取的灰度图像。图 3是线激光投影到铰链表面上的原始图像,图 4是只包含铰链而没有线激光的背景图像。采用式(3)所示的图像差分法获取只包含激光光条的图像,采用中值滤波方法对图像进行去噪处理,最终获取的光条图像如图 5所示。

图 3 原始灰度图像
Fig. 3 Original gray image
图 4 背景灰度图像
Fig. 4 Background gray image
图 5 光条灰度图像
Fig. 5 The gray image of light stripe

2.2 本文算法

本文提出的改进光条中心提取算法,其原理示意图如图 6所示。图中的黑点表示线结构光光条的一系列像素点,点$p $是通过传统的灰度重心法计算的光条第$ j$列的灰度重心点,${\mathit{\boldsymbol{n}}_p} $表示$p $点处的法向量,$p $′是通过改进的算法获取的光条中心点。

图 6 光条中心提取原理示意图
Fig. 6 Principle for center extraction

首先在图像的列方向应用传统的灰度重心法计算出一系列的中心点$p $,其坐标为

$ p\left( {{x_j}, j} \right) = \left( {\frac{{\sum\limits_{i = 1}^L {I\left( {i, j} \right)} \cdot i}}{{\sum\limits_{i = 1}^L {I\left( {i, j} \right)} }}, j} \right) $ (4)

通过传统灰度重心法求解出光条上一系列的初始中心点,然后在每一点处确定出其法线方向。求取每一个数据点处的法线方向是一个非常繁琐的过程,为提高算法的运行效率,本文引入方向模板技术[20],快速计算每一个初始中心点处的法线方向。

线结构光在像素级范围内,可以认为线结构光光条走向只有4种模式:水平,垂直,左倾45°和右倾45°。为了能够准确地描述线结构光光条的形状,方向模板一般根据光条的粗细程度进行选取,本文选取7×7的模板分别与光条走向的4种模式一一对应,建立的4个方向模板分别为$ {\mathit{\boldsymbol{T}}_1}, {\mathit{\boldsymbol{T}}_2}, {\mathit{\boldsymbol{T}}_3}, {\mathit{\boldsymbol{T}}_4}$

$ {\mathit{\boldsymbol{T}}_1} = \left[ {\begin{array}{*{20}{l}} 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&1&0&0&0 \end{array}} \right] $

$ {\mathit{\boldsymbol{T}}_2} = \left[ {\begin{array}{*{20}{l}} 0&0&0&0&0&0&0\\ 0&0&0&0&0&0&0\\ 0&0&0&0&0&0&0\\ 1&1&1&1&1&1&1\\ 0&0&0&0&0&0&0\\ 0&0&0&0&0&0&0\\ 0&0&0&0&0&0&0 \end{array}} \right] $

$ {\mathit{\boldsymbol{T}}_3} = \left[ {\begin{array}{*{20}{l}} 1&0&0&0&0&0&0\\ 0&1&0&0&0&0&0\\ 0&0&1&0&0&0&0\\ 0&0&0&1&0&0&0\\ 0&0&0&0&1&0&0\\ 0&0&0&0&0&1&0\\ 0&0&0&0&0&0&1 \end{array}} \right] $

$ {\mathit{\boldsymbol{T}}_4} = \left[ {\begin{array}{*{20}{l}} 0&0&0&0&0&0&1\\ 0&0&0&0&0&1&0\\ 0&0&0&0&1&0&0\\ 0&0&0&1&0&0&0\\ 0&0&1&0&0&0&0\\ 0&1&0&0&0&0&0\\ 1&0&0&0&0&0&0 \end{array}} \right] $

记模板为$\mathit{\boldsymbol{T}} $,模板$ {\mathit{\boldsymbol{T}}_1}, {\mathit{\boldsymbol{T}}_2}, {\mathit{\boldsymbol{T}}_3}, {\mathit{\boldsymbol{T}}_4}$分别对应光条走向的4种模式:水平、垂直、左倾45°和右倾45°。以粗提取的光条中心点为中心,将4个模板分别与图像作如式(5)所示的运算

$ \begin{array}{*{20}{c}} {{H_k}(x, y) = }\\ {\sum\limits_{u = 1}^7 {\sum\limits_{v = 1}^7 I } (x - 4 + u, y - 4 + v) \times {T_k}(u, v)}\\ {k = 1, 2, 3, 4} \end{array} $ (5)

式中,$ I{\rm{(}}x, y{\rm{)}}$表示粗提取的中心点处的像素灰度值,$ {T_k}(u, v)$表示对应模板矩阵的元素值。对于每一个中心点,可以求得4个不同的$ H$值,该值反映了中心点处的图像与模板的相关程度,$ H$值越大,相关程度越高。当${H_k} = \max \left( H \right) $时,该点处图像的斜率最接近于第$ k$个模板的方向,则第$ k$个模板的方向即为该点处光条的法线方向。

设光条在初始中心点$ p\left( {{x_j}, j} \right)$处的法线方向上像素点$\left( {{i^n}, {j^n}} \right) $的灰度值为$ {I_n}\left( {{i^n}, {j^n}} \right)$,它到点$p $的距离通过式(6)可以计算

$ {d_m} = \pm \sqrt {{{\left( {{i^n} - {x_j}} \right)}^2} + {{\left( {{j^n} - j} \right)}^2}} $ (6)

式中,像素点$\left( {{i^n}, {j^n}} \right) $在以$p $为起点的向量${\mathit{\boldsymbol{n}}_p} $的正方向上时,距离$ {d_m}$取正值,点$\left( {{i^n}, {j^n}} \right) $在以$p $为起点的向量${\mathit{\boldsymbol{n}}_p} $的负方向上时,距离$ {d_m}$取负值。

由于每一个初始中心点处法向上光条的宽度不一致,因此通过程序自动检测光条边缘。在每一个初始中心点处沿法线方向进行搜索,直到光条两端的边缘,计算所有像素点到初始中心点的距离,以各点处的灰度值为权重值,进行二次中心提取,计算二次提取的中心点$p′ $到点$p $的偏移距离为

$ {d_p} = \frac{{\sum\limits_{m = 1}^M {{d_m}} \cdot {I_n}(i, j)}}{{\sum\limits_{m = 1}^M {{I_n}} (i, j)}} $ (7)

式中,$M $是点$p $处法线方向上光条的像素宽度,它随着点$p $的变化而自适应变化。

在法线方向上提取的中心点$p′ $的坐标$ p'\left( {{x_{p'}}, {y_{p'}}} \right)$

$ \left\{ {\begin{array}{*{20}{l}} {{x_{p'}} = {x_j} + {d_p}\cos \theta }\\ {{y_{p'}} = j + {d_p}\sin \theta } \end{array}} \right. $ (8)

式中,$\theta $为法线向量${\mathit{\boldsymbol{n}}_p} $$X $坐标轴的夹角。

3 实验结果与讨论

3.1 光条中心提取实验

本文采用图 7所示的线结构光视觉系统实验平台完成光条图像的采集,激光器和相机的结构布置形式是激光器垂直于水平面,相机相对于激光器倾斜。激光器为激光波长为656 nm的红色线激光器,CCD相机的图像分辨率为656 × 492像素,镜头焦距为8 mm。线激光器产生线激光投影到待测物体上形成线结构光光条,CCD相机和定焦镜头完成光条图像的采集。

图 7 线结构光视觉实验平台
Fig. 7 The experiment platform of line structured light vision

为验证本文算法能否提取不同形状线结构光光条的中心,采用本文算法对光条中心进行提取,图 8展示了3种形状光条的中心提取结果。

图 8 不同形状光条中心提取结果
Fig. 8 Results of light stripe center extraction ((a) obliquely distributed straight light stripe; (b) non-continuous light stripe; (c) curved light stripe)

图 8的光条中心提取结果可以看出,本文算法可以实现线结构光投影产生的直线型光条、非连续光条和弯曲光条的中心提取,获取的光条中心线的走向与光条的走向大致相同,符合预期的光条中心线。

3.2 光条中心提取精度分析

基于Hessian矩阵的Steger法是一种经典的线结构光光条中心提取算法,该算法通过Hessian矩阵获得光条的法线方向,然后在法线方向上利用泰勒级数展开获取光条中心的亚像素位置[21],是目前精度最高的线结构光光条中心提取算法。因此可以将Steger法作为本文算法的精度评估参考。

为比较不同的光条中心提取算法,分别采用传统灰度重心法、本文算法、Steger法对线结构光光条的中心进行提取,图 9展示了采用不同算法对图 8(c)所示光条的中心进行提取得到的中心线的放大结果图。从图中可以看到,与传统灰度重心法相比,本文算法提取的光条中心更接近于Steger法提取的光条中心。

图 9 不同算法的光条中心提取结果
Fig. 9 Center extraction results for different methods

采用传统灰度重心法、本文算法分别对图 8所示的线结构光光条进行中心提取。以Steger法提取的光条中心为参考,分别计算两种算法与Steger法提取的光条中心的距离,以距离作为偏差,记录最大偏差和平均偏差。结果如表 1所示。

表 1 光条中心提取偏差
Table 1 The deviation of stripe center extraction

下载CSV
光条形状
图 8(a) 图 8(b) 图 8(c)
最大偏差 传统灰度重心法/像素 0.87 0.62 1.65
本文算法/像素 0.62 0.61 1.09
误差减少率/% 18.4 1.6 33.9
平均偏差 传统灰度重心法/像素 0.33 0.29 0.66
本文算法/像素 0.27 0.28 0.48
误差减少率/% 18.2 3.4 27.3
均方根偏差 传统灰度重心法/像素 0.38 0.35 0.66
本文算法/像素 0.33 0.33 0.48
误差减少率/% 13.2 5.7 27.3

表 1可以看出,本文算法能够提高传统灰度重心法的中心提取精度。但光条形状不同,中心提取的精度也存在差异,图 8(b)所示的非连续光条,由于光条在图像上的分布近似水平,其法线方向接近于图像的列方向,因此采用两种算法获取的光条中心的位置偏差较小;图 8(c)所示的弯曲光条形状较复杂,因此本文算法能够显著提高传统灰度重心法的中心提取精度。

3.3 程序运行时间分析

针对本文算法、传统灰度重心法、Steger法,分别记录处理图 8所示的3种形状光条的程序运行时间,如表 2所示。实验中,用于图像处理的计算机具有Intel i5-2450处理器、2.5 GHz的CPU和4 GB的RAM,图像处理软件平台是MATLAB 2014a。

表 2 程序运行时间
Table 2 Run time of program

下载CSV
/s
光条形状 Steger法 传统灰度重心法 本文算法
图 8(a) 4.176 0.289 0.329
图 8(b) 4.045 0.265 0.306
图 8(c) 4.429 0.279 0.387

表 2所示,本文算法的运行时间虽然多于传统灰度重心法,但其差距只在0.1 s左右,可以忽略。本文算法的运行时间明显低于Steger法,程序运行时间减少3 s以上,因此更能够满足实时性系统的要求。

4 结论

本文通过搭建的线结构光视觉系统实验平台对线结构光光条的中心提取算法进行研究,在传统灰度重心法的基础上,提出一种改进的光条中心提取算法。通过对不同形状的光条进行中心提取实验,实验数据表明,本文算法能够对直线型光条、非连续光条、弯曲光条的中心进行提取,获取的光条中心线的走向与光条走向大致相同,符合预期的光条中心线。通过与传统灰度重心法、Steger法相比,本文算法的精度比传统灰度重心法更高,程序运行时间比Steger法更少,因此本文算法能够提高传统灰度重心法的光条中心提取精度,同时也能够保证较短的程序运行时间,满足实时性的要求。但本文只对列举的几种形状的光条的中心进行了提取,后续需要对算法的通用性进行进一步的研究。

参考文献

  • [1] Wu J Y, Wang P J, Chen J H, et al. Method of linear structured light sub-pixel center position extracting based on gradient barycenter[J]. Journal of Image and Graphics, 2009, 14(7): 1354–1360. [吴家勇, 王平江, 陈吉红, 等. 基于梯度重心法的线结构光中心亚像素提取方法[J]. 中国图象图形学报, 2009, 14(7): 1354–1360. ] [DOI:10.11834/jig.20090719]
  • [2] Liu B, Wang P, Zeng Y, et al. Measuring method for micro-diameter based on structured-light vision technology[J]. Chinese Optics Letters, 2010, 8(7): 666–669. [DOI:10.3788/COL20100807.0666]
  • [3] Gao X H, Liang B, Pan L, et al. Pose measurement of large non-cooperative target using line structured light vision[J]. Journal of Astronautics, 2012, 33(6): 728–735. [高学海, 梁斌, 潘乐, 等. 非合作大目标位姿测量的线结构光视觉方法[J]. 宇航学报, 2012, 33(6): 728–735. ] [DOI:10.3873/j.issn.1000-1328.2012.06.007]
  • [4] Wu Q H. Study on theory and application of 3D surface defect on-line detecting based on line-structured laser scanning[D]. Wuhan: Huazhong University of Science and Technology, 2013. [吴庆华.基于线结构光扫描的三维表面缺陷在线检测的理论与应用研究[D].武汉: 华中科技大学, 2013.] http://cdmd.cnki.com.cn/Article/CDMD-10487-1014024547.htm
  • [5] Kwon J H, Im S, Chang M, et al. A digital approach to dynamic jaw tracking using a target tracking system and a structured-light three-dimensional scanner[J]. Journal of Prosthodontic Research, 2019, 63(1): 115–119. [DOI:10.1016/j.jpor.2018.05.001]
  • [6] Mao X R, Yuan X, Zhao C X. Detection of indoor robot's passable areas based on a single-line structured light[J]. Applied Mechanics and Materials, 2013, 433-435: 667–675. [DOI:10.4028/www.scientific.net/AMM.433-435.667]
  • [7] Liu T, Jia G, Wang Z Y. A calibrate method of line structured light visual measurement system based on motion[J]. Chinese Journal of Sensors and Actuators, 2011, 24(4): 624–628. [刘涛, 贾刚, 王宗义. 一种基于运动的线结构光视觉测量系统标定方法[J]. 传感技术学报, 2011, 24(4): 624–628. ] [DOI:10.3969/j.issn.1004-1699.2011.04.029]
  • [8] Xi J H, Bao H, Ren Y. Research on fast extraction algorithm of laser stripee normal center[J]. Science and Technology & Innovation, 2018(1): 41–43. [席剑辉, 包辉, 任艳. 激光条纹法向中心的快速提取算法研究[J]. 科技与创新, 2018(1): 41–43. ]
  • [9] Usamentiaga R, Molleda J, García D F. Fast and robust laser stripe extraction for 3D reconstruction in industrial environments[J]. Machine Vision and Applications, 2012, 23(1): 179–196. [DOI:10.1007/s00138-010-0288-6]
  • [10] Li Y Y, Zhang Z Y, Yuan L. Survey on linear structured light stripe center extraction[J]. Laser & Optoelectronics Progress, 2013, 50(10): #100002. [李莹莹, 张志毅, 袁林. 线结构光光条中心提取综述[J]. 激光与光电子学进展, 2013, 50(10): #100002. ] [DOI:10.3788/lop50.100002]
  • [11] Leng H W, Xu C G, Xiao D G, et al. Three-dimensional measurement method of complex deep hole inner contour based on line structure light[J]. Transactions of Beijing Institute of Technology, 2013, 33(2): 139–143. [冷惠文, 徐春广, 肖定国, 等. 基于线结构光的复杂深孔内轮廓三维测量方法[J]. 北京理工大学学报, 2013, 33(2): 139–143. ] [DOI:10.3969/j.issn.1001-0645.2013.02.006]
  • [12] Gao S Y, Yang K Z. Research on central position extraction of laser strip based on varied-boundary Gaussian fitting[J]. Chinese Journal of Scientific Instrument, 2011, 32(5): 1132–1137. [高世一, 杨凯珍. 变边限高斯拟合提取激光条纹中心线方法的研究[J]. 仪器仪表学报, 2011, 32(5): 1132–1137. ] [DOI:10.19650/j.cnki.cjsi.2011.05.028]
  • [13] Jia W P, Wang B G. The method for fast detecting the center of multi-structured light stripes based on Hessian matrix[J]. Journal of Dalian University, 2014, 35(6): 34–37. [贾卫平, 王邦国. 基于Hessian矩阵的多结构光条纹中心快速提取方法[J]. 大连大学学报, 2014, 35(6): 34–37. ] [DOI:10.3969/j.issn.1008-2395.2014.06.008]
  • [14] Zhang X Y, Wang X Q, Bai F Z, et al. Improved gray centroid method for extracting the centre-line of light-stripe[J]. Laser & Infrared, 2016, 46(5): 622–626. [张小艳, 王晓强, 白福忠, 等. 基于改进灰度重心法的光带中心提取算法[J]. 激光与红外, 2016, 46(5): 622–626. ] [DOI:10.3969/j.issn.1001-5078.2016.05.022]
  • [15] Guo Y J, Bai F Z, Zhang T Y, et al. Ring object diameter measuring method based on radon transform and gray gravity algorithm[J]. Laser & Optoelectronics Progress, 2015, 52(8): 081501. [郭延杰, 白福忠, 张铁英, 等. 基于Radon变换与灰度重心法的环形目标直径测量方法[J]. 激光与光电子学进展, 2015, 52(8): 081501. ] [DOI:10.3788/lop52.081501]
  • [16] Guo L, Zhu M Z. Robust method of linear structured light center line extracting[J]. Electro-Optic Technology Application, 2014, 29(4): 30–33. [郭玲, 朱茂之. 结构光条纹中心线的鲁棒提取[J]. 光电技术应用, 2014, 29(4): 30–33. ] [DOI:10.3969/j.issn.1673-1255.2014.04.010]
  • [17] Wang L, Chen N N, Wu L, et al. Extraction of laser stripe sub-pixel center in high-noise background[J]. Journal of Applied Optics, 2016, 37(2): 321–326. [王利, 陈念年, 巫玲, 等. 高噪声背景下激光条纹亚像素中心的提取[J]. 应用光学, 2016, 37(2): 321–326. ] [DOI:10.5768/JAO201637.0207004]
  • [18] Steger C. Unbiased extraction of lines with parabolic and Gaussian profiles[J]. Computer Vision and Image Understanding, 2013, 117(2): 97–112. [DOI:10.1016/j.cviu.2012.08.007]
  • [19] Xu G, Sun L N, Li X T, et al. Adaptable center detection of a laser line with a normalization approach using Hessian-matrix eigenvalues[J]. Journal of the Optical Society of Korea, 2014, 18(4): 317–329. [DOI:10.3807/JOSK.2014.18.4.317]
  • [20] Wang Z H, Zhang Z W. Adaptive direction template method to extract the center of structured light[J]. Laser Journal, 2017, 38(1): 60–64. [王泽浩, 张中炜. 自适应方向模板线结构光条纹中心提取方法[J]. 激光杂志, 2017, 38(1): 60–64. ] [DOI:10.14016/j.cnki.jgzz.2017.01.060]
  • [21] Li D L, Tang Y S, Huang X C, et al. Based on the Hessian matrix of the linear structured light center line extraction method research[J]. Automobile Applied Technology, 2017(22): 37–39. [李栋梁, 唐阳山, 黄贤成, 等. 基于Hessian矩阵的线结构光中心线提取方法研究[J]. 汽车实用技术, 2017(22): 37–39. ] [DOI:10.16638/j.cnki.1671-7988.2017.22.013]