高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

面向工业检测的光场相机快速标定研究

王兴政 刘杰豪 韦国耀 陈松伟

王兴政, 刘杰豪, 韦国耀, 陈松伟. 面向工业检测的光场相机快速标定研究[J]. 电子与信息学报, 2022, 44(5): 1530-1538. doi: 10.11999/JEIT211174
引用本文: 王兴政, 刘杰豪, 韦国耀, 陈松伟. 面向工业检测的光场相机快速标定研究[J]. 电子与信息学报, 2022, 44(5): 1530-1538. doi: 10.11999/JEIT211174
WANG Xingzheng, LIU Jiehao, WEI Guoyao, CHEN Songwei. Fast Light Field Camera Calibration for Industrial Inspection[J]. Journal of Electronics & Information Technology, 2022, 44(5): 1530-1538. doi: 10.11999/JEIT211174
Citation: WANG Xingzheng, LIU Jiehao, WEI Guoyao, CHEN Songwei. Fast Light Field Camera Calibration for Industrial Inspection[J]. Journal of Electronics & Information Technology, 2022, 44(5): 1530-1538. doi: 10.11999/JEIT211174

面向工业检测的光场相机快速标定研究

doi: 10.11999/JEIT211174
基金项目: 广东省自然科学基金(2020A1515011559, 2021A1515012287),深圳市科技研究项目(JCYJ20180306174120445, 20200810150441003, ZDYBH201900000002)
详细信息
    作者简介:

    王兴政:男,1983年生,副教授,研究方向为计算摄像、光场成像与分析、机器视觉检测、医学图像分析与识别

    刘杰豪:男,1996年生,硕士生,研究方向为光场数据处理与光场相机标定

    韦国耀:男,1997年生,硕士生,研究方向为双目相机标定、目标检测

    陈松伟:男,1999年生,硕士生,研究方向为光场数据处理与显著性目标检测

    通讯作者:

    王兴政 xingzheng.wang@szu.edu.cn

  • 中图分类号: TP274

Fast Light Field Camera Calibration for Industrial Inspection

Funds: The Natural Science Foundation of Guangdong Province (2020A1515011559, 2021A1515012287), The Shenzhen Science and Technology Research Fund (JCYJ20180306174120445, 20200810150441003, ZDYBH201900000002)
  • 摘要: 由于光场数据量大,现有光场相机标定算法存在速度慢、无法快速校准工业检测中光场相机的参数变化、降低工业检测效率的问题。该文基于稀疏光场成像模型优化光场数据,提出光场相机快速标定算法。该算法以清晰度作为图像质量评价指标,从光场数据中选取高质量、具有代表性的稀疏视图,构建稀疏光场;接着利用稀疏光场求解相机参数初值并优化,得到最佳参数。实验结果表明,与现有最优标定算法相比,该方法不仅提高平均标定速度70%以上,在现有5个数据集的平均标定时间从101.27 s减少到30.99 s,而且保持标定精度在最优水平,在公开数据集PlenCalCVPR2013DatasetA的标定误差仅为0.0714 mm。
  • 光场相机不仅能够获得光线的位置信息,而且能够记录与场景深度、目标几何形态等高度相关的光线角度信息,即3维信息[1-3]。因此,光场相机在工业检测中具有独特应用,例如印制电路板(Printed Circuit Board, PCB)检测[4,5]。如图1,光场相机可以通过一次成像获取PCB的3维图像,进而精确地得到PCB引脚长度,同时发现PCB表面瑕疵。标定是光场相机在工业检测应用的基础,标定精度对检测精度具有关键作用。因此,现有光场相机标定研究更多关注标定精度,而忽视另一个因素—标定速度[6-8]。这是因为在许多场景中相机参数一般固定不变,只需标定1次,所以标定速度对光场相机应用的影响很小。但在工业检测中,光场相机参数由于人为操作和环境扰动不可避免发生改变:(1)当光场相机发生变焦、重新对焦等操作时,相机内参发生变化;(2)由于相机外参对扰动非常敏感,工业场景的机械振动导致相机外参发生变化[9-14]。因此,在工业检测中光场相机需要定期进行重新标定,获取精确的相机参数。在重新标定过程中,光场相机停止工作,进而影响工业检测效率。因此,加快标定速度可以减少标定对工业检测效率的影响。

    图 1  光场相机在工业检测的应用:PCB检测

    但是,现有光场相机标定方法只关注标定精度、忽视标定速度,导致无法快速校准光场相机参数变化,进而降低工业检测效率。Bok等人[15]和Liu等人[16]分别使用光场图像的线特征和点特征进行标定,而高精度的特征提取需要很高计算成本。例如,输入10张光场图像,Bok等人[15]的平均标定时间超过1000 s,Liu等人[16]的平均标定时间也超过200 s。Dansereau等人[17]没有直接使用光场图像,而是利用光场图像中提取的9×9稠密子视图即稠密光场,实现光场相机标定。但是,稠密光场的数据量大,同样带来计算成本高、标定速度慢的问题。Dansereau等人[17]标定10张光场图像的平均时间约100 s。相比Bok等人[15]和Liu等人[16],Dansereau等人[17]的标定速度更快,但仍然不满足工业检测对标定快速性的要求。

    针对光场数据量大带来的现有方法标定速度慢的问题,本文基于稀疏光场成像模型优化光场数据,提出光场相机快速标定算法。本算法以清晰度作为图像质量评价指标,从9×9稠密子视图中提取高质量、具有代表性的稀疏子视图,构成稀疏光场:(1)首先选取中心子视图,因为参数初值与中心子视图的主点等相关,而且中心子视图的质量最高;(2)因为参数初值求解对子视图对称的要求,在中心子视图的上下、左右对称地选取子视图。本文共建立7×7, 5×5和3×3共3种稀疏光场。标定中,本文利用3种稀疏光场求解参数初值,并用最小化射线重投影误差的方法优化参数初值,得到参数最优解。实验部分,本文对比3种稀疏光场方案的标定精度和标定速度,确定最优的稀疏光场方案;然后再对比最优方案与Dansereau等人[17]方法在标定精度和标定时间的表现。

    本文的创新主要包括两部分:(1)设计光场数据的优化方案,从稠密光场提取高质量稀疏光场;(2)利用获取的稀疏光场实现快速光场相机标定,确定最优的稀疏光场方案。后续章节安排如下:第2节具体阐述基于稀疏光场的光场相机快速标定方法,包括稀疏光场的建立和相机标定步骤;第3节是标定实验及结果;第4节是总结和讨论。

    本文基于稀疏光场成像模型,通过优化光场数据提出光场相机快速标定算法。算法包括两个步骤:(1)优化光场数据,进而建立高质量的稀疏光场;(2)利用稀疏光场计算光场相机参数初值,再优化参数初值得到相机参数最优解。

    稀疏光场的建立包括2步:(1)基于虚拟相机阵列模型的光场数据分析;(2)设计光场数据优化策略,建立高质量稀疏光场。

    (1)光场数据分析。光场图像及微透镜子图像的形成过程如图2(a),微透镜子图像记录同一位置、不同方向的光线;子视图的形成如图2(b),子视图记录同一方向、不同位置的光线。因此,原始光场数据包含光线角度信息和位置信息,即4D光场。用双平面法表示4D光场

    图 2  光场图像、微透镜子图像及光场子视图的形成
    L(i,j,k,l)=Rn1=RRn2=RM1m1=1M2m2=1L(in1,jn2,km1,lm2)
    (1)

    其中,(i,j)表示方向平面,(k,l)表示位置平面。光场数据的方向分辨率为2R×2R、位置分辨率M1×M2(第1代光场相机Lytro和第2代光场相机Lytro Illum的分辨率分别为328×380和434×625)。

    由于4D光场的角度信息和位置信息高度耦合、数据优化难度大,本文将光场相机等效为虚拟相机阵列,如图3(b)。因此,光场相机成像等效于虚拟相机阵列在2R×2R视角进行拍摄,获得2R×2R子视图。其中一个子视图(例如图2(b)红线对应一个子视角)表示为

    图 3  光场相机、虚拟相机阵列模型及子视图质量
    L(i,j,k,l)=M1m1=1M2m2=1L(i,j,km1,lm2)
    (2)

    其中,M1M2分别为微透镜阵列的行和列,ij表示方向固定。因此,从M1×M2个微透镜子图像提取相对坐标为(i,j)的像素,按顺序排列,可获得一个子视图。实际上,光场图像可提取2R×2R幅子视图。式(1)表示的光场数据等价于2R×2R子视图的集合

    L(i,j,k,l)=[L(R,R,km1,lm2)L(R,R,km1,lm2)...L(1,1,km1,lm2)L(1,0,km1,lm2)L(1,1,km1,lm2)L(0,1,km1,lm2)L(0,0,km1,lm2)L(0,1,km1,lm2)L(1,1,km1,lm2)L(1,0,km1,lm2)L(1,1,km1,lm2)L(R,R,km1,lm2)L(R,R,km1,lm2)]
    (3)

    实际上,式(3)表示的2R×2R子视角存在冗余和重叠[18]。因此,本文对光场数据进行优化,并建立高质量稀疏光场。

    (2)光场数据优化及稀疏光场建立。由于图像清晰度影响标定精度,而能量梯度函数(Energy Of Gradient, EOG)是图像清晰度评价的指标之一,所以本文基于能量梯度函数,分析光场相机捕获的9×9子视图质量

    F=xy{[f(x+1,y)f(x,y)]2+[f(x,y+1)f(x,y)]2}
    (4)

    计算得到的9×9子视图的能量梯度函数值如图3(c)。不难发现:(a)中心子视图的图像质量最优;(b)图像质量从中心子视图到边缘子视图递减;(c)边缘子视图质量最差。本文分析原因在于中心子视图能够精确获得,其他子视图通过中心子视图间接得到(现有方法[17])。

    根据以上3个发现,本文设计子视图的选取策略:(1)首先选取中心子视图,因为根据EOG图像质量评价指标,中心子视图质量最好;(2)因为参数初值求解对子视图对称的要求,在中心子视图的上下、左右对称地选取子视图;(3)其次间隔i=j=s选择2R×2R子视图(s称作稀疏因子),因为光场相机的相邻子视图间视差极小。例如,Lytro光场相机的相邻视差估计值为0.37 mm,最大基线长度为2.97 mm;Lytro Illum光场相机的相邻视差估计值为0.52 mm,最大视差为7.33 mm[19]。策略(3)选择大视差的子视图,减少子视图间的重叠和冗余。本文选取策略表示为

    Oi,j=Oc+(iΔpx,jΔpy,0,0)
    (5)

    其中,i[n,n], j[n,n],表示稀疏光场的采样序列;n<2R, n表示稀疏光场的大小;Δpx=Δpy=s,表示水平相对视差和垂直相对视差,都等于稀疏因子s。因此本文根据式(5)从式(3)表示的光场数据中提取稀疏子视图,建立稀疏光场Ls(i,j,k,l)

    Ls(i,j,k,l)=[...L(s,s,km1,lm2)L(s,0,km1,lm2)L(s,s,km1,lm2)L(0,s,km1,lm2)L(0,0,km1,lm2)L(0,s,km1,lm2)L(s,s,km1,lm2)L(s,0,km1,lm2)L(s,s,km1,lm2)...]
    (6)

    其中,L(0,0,km1,lm2)为中心子视图。本文选择s=1,分别取n=7, 5, 3, 建立稀疏光场,对应稀疏光场成像模型如图4。3×3, s=1的稀疏光场表达式为

    图 4  3种稀疏光场成像模型
    Ls3×3(i,j,k,l)=[L(1,1,km1,lm2)L(1,0,km1,lm2)L(1,1,km1,lm2)L(0,1,km1,lm2)L(0,0,km1,lm2)L(0,1,km1,lm2)L(1,1,km1,lm2)L(1,0,km1,lm2)L(1,1,km1,lm2)]
    (7)

    本文将稀疏光场用于光场相机标定,计算光场相机参数。光场相机标定步骤包括:(1)参数初值求解;(2)不考虑畸变的参数优化;(3)考虑畸变的参数优化。

    (1) 初值求解。根据Dansereau等人[17],光场内参数矩阵为H5×5,表示光场相机中像平面光线Φ=(i,j,k,l,1)T与物平面光线Ψ=L(u,v,s,t,1)T的映射关系

    [stuv1]=H5×5[ijkl1]
    (8)
    H5×5=[hsi0hsk0hs0htj0htlhthui0huk0ht0hvj0hvlhv00001]
    (9)

    并且H5×5对于初值不敏感,只需初值的估计值[17]。因此,本文利用稀疏光场求解相机几何参数作为H5×5的初值。实验获得P个姿态的棋盘格光场图像。以一幅光场图像为例(即一个姿态),从一幅4D光场图像的稠密光场(例如9×9子视图)提取Nsi×Nsj稀疏光场(例如3×3, s=2),总共获得Nsi×Nsj幅2D子视图。使用Jean-Yves Bouguet的标定工具箱计算子视图对应虚拟相机的主点C、焦距f。接着利用得到的结果和子视图的角点、3维棋盘格角点,计算得到Nsi×Nsj个旋转矩阵R和平移矩阵T。这些旋转矩阵和平移矩阵非常接近,因为光场图像提取的子视图的视差很小。因此,本文将这些外参的均值作为子姿势的平移矩阵˜Tp

    (2) 无畸变优化。得到H5×5的初值后,本文使用非线性方法优化结果。本文首先不考虑畸变系数,仅优化光场内参数。基于优化方法,本文采用的目标函数是射线重投影误差。射线重投影误差的计算如下:(a)子视图的角点对应像平面射线: Φ=(i,j,k,l);(b)利用H5×5Φ转换到物平面射线:Ψ=(s,t,u,v);(c)利用外参[R,T]将3维角点PW转换到相机坐标系PC;(d)计算射线Ψ=(s,t,u,v)PC之间的距离。不考虑畸变,非线性优化的目标函数为

    argminNkk=1Posep=1Nsii=1Nsjj=1Ψi,j(H5×5,R,T),PCkptray
    (10)

    其中,argmin表示使目标函数取最小值时的变量值;ptray指的是点线的距离,即射线重投影误差;Nk表示棋盘格角点个数;Pose表示拍摄的姿态数;Nsi×Nsj表示稀疏光场子视图个数。

    (3) 畸变优化。初步优化后,本文考虑图像畸变,进一步优化相机参数和畸变系数。由于安装误差和透镜性质,相机拍摄得到的图像通常存在畸变,主要包括径向畸变和切向畸变。其中,径向畸变对图像的影响比较突出。因此,本文主要校正图像的径向畸变。无畸变图像坐标(x,y)T与畸变图像坐标(˜x,˜y)T的关系如式(11)

    [xy]=(1+k1r2+k2r4+k3r6)[˜x˜y]
    (11)

    其中,r2=x2+y2,径向畸变系数kd=[k1,k2,k3]。考虑畸变的影响后,进一步优化的目标函数为

    argminnkk=1Posep=1Nsii=1Nsjj=1Ψi,j(H5×5,R,T,kd),PCkptray
    (12)

    其中,畸变系数kd初值为[1,2,3]。

    实验中,本文使用步骤(3)对参数结果进行两次优化,进一步减少标定误差。因此,相机标定实际包括4个步骤:(1)参数初值求解;(2)不考虑畸变的参数优化;(3)考虑畸变的参数优化;(4)进一步优化。3.2节将对比新方法和现有方法在4个步骤的具体标定时间。

    为确保实验条件相同,本文采用一致的实验设备和数据集,其中计算机配置为lntel Core i5-9400F 2.90 GHz CPU 和 16.0 GB RAM,软件为Matlab R2018b。本文的实验数据来自Dansereau提供的Lytro光场相机数据集,包括A, B, C, D, E共5个光场数据。数据集的规格如表1。棋盘格光场图像如图5。以数据集A为例,A中包括10个姿态的光场图像,每张光场图像大小为3280×3280 pixels,对应真实棋盘格尺寸为3.61 mm×3.61 mm,棋盘格角点为19×19=361个。利用5个公开光场数据集,生成稠密光场和稀疏光场:光场相机等效为从9×9虚拟相机阵列,从光场图像提取所有9×9子视角图像,构成稠密光场;而从稠密光场中提取稀疏子视图,构造7×7, 5×5, 3×3共3种稀疏光场。本文分别利用稠密光场和稀疏光场进行标定实验,对比标定性能。

    表 1  标定数据集
    数据集数量(张)尺寸
    (mm)
    角点数量
    (个)
    图像大小
    (像素)
    视角数量
    (个)
    A103.61×3.6119×193280×32809×9
    B103.61×3.6119×193280×32809×9
    C127.22×7.2219×193280×32809×9
    D107.22×7.2219×193280×32809×9
    E1735.0×35.16×83280×32809×9
    下载: 导出CSV 
    | 显示表格
    图 5  棋盘格光场图像数据集

    为了验证新方法的性能,本文进行了以下实验,包括:(1)对比不同稀疏光场的标定性能,进而确定最优稀疏光场方案;(2)对比新方法和现有方法的标定性能。

    (1) 不同稀疏光场方案的标定性能对比。本文首先改变稀疏光场的视角个数和稀疏因子,建立7×7, 5×5, 3×3共3种稀疏光场,对比不同稀疏光场的标定性能。其中,3×3光场分为两种稀疏光场:稀疏因子为1和2。使用4种稀疏光场对数据集A, B, C, D, E分别进行标定,标定结果总结在表2中(表2结果括号内为标定时间)。本文将表2的标定时间绘制成图6。从表2图6发现,不同稀疏光场使用5个数据集的标定精度基本保持一致,因此标定精度受视角个数和稀疏因子的影响很小;而随着视角的减小,标定时间不断减少,标定速度不断提高。并且,3×3稀疏光场的标定时间最少,标定速度达到最快。因此3×3稀疏光场是这3个方案中的最佳方案。

    表 2  不同稀疏光场方案的射线重投影误差(mm)和标定时间(s)
    数据集9×97×75×53×3 s=13×3 s=2
    A(10)0.0749(109.43)0.0733(83.3)0.0739(34.85)0.0714(19.73)0.0728(17.87)
    B(10)0.0455(102.47)0.0439(73.18)0.0419(36.14)0.0403(16.52)0.0432(16.46)
    C(12)0.0917(120.28)0.0901(90.34)0.0872(42.44)0.0910(18.72)0.0825(19.09)
    D(10)0.0845(131.38)0.0805(74.49)0.0805(35.36)0.0760(16.56)0.0811(15.20)
    E(17)0.1941(42.81)0.1883(46.09)0.1765(19.47)0.1581(8.39)0.1838(7.87)
    下载: 导出CSV 
    | 显示表格
    图 6  标定时间随视角个数的变化

    本文更进一步探讨不同稀疏光场方案对中心子视图的影响:对比9×9稠密光场标定方法和3×3稀疏光场标定方法,计算两种方案在9×9子视图的标定误差,得到表3表4。其中,红色数字标注的是中心子视图误差,蓝色数字标注的是边缘子视图误差。本文发现稀疏光场的标定方法会导致中心子视图的标定精度上升,边缘子视图标定精度下降。分析原因在于稀疏光场标定方法在优化时,中心子视图的标定误差得到优化进而减少,而边缘子视图误差没有得到优化。由于中心子视图及其邻近子视图在实际中得到更多使用,因此,提高中心子视图的标定精度对于光场相机的实际应用价值更高。

    表 3  9×9稠密光场标定方法在不同子视图的标定误差
    位置123456789
    10.12710.09360.07830.08260.08420.08270.08280.10470.1586
    20.08540.08140.08370.08210.08110.08240.08350.08100.0941
    30.07950.08230.08000.07620.07480.07680.08110.08210.0809
    40.07890.08250.07990.07320.07190.07430.07910.08120.0777
    50.07850.08180.07810.07280.07180.07470.07970.08150.0769
    60.07980.08160.08080.07580.07550.07850.08570.08590.0788
    70.08240.08450.08410.08150.08200.08510.09030.08470.0833
    80.10090.08300.08690.09090.08930.08960.08680.08240.0979
    90.21540.13900.08760.08710.08770.08550.08390.12190.1937
    下载: 导出CSV 
    | 显示表格
    表 4  3×3稀疏光场标定方法在不同子视图的标定误差
    位置123456789
    10.18310.12900.08690.07960.07830.08030.09490.14470.2174
    20.11780.08290.07650.07460.07400.07410.07600.08790.1363
    30.09330.07610.07320.07180.07140.07140.07230.07700.1051
    40.08870.07640.07380.07070.07050.07090.07160.07390.0954
    50.08840.07550.07320.07070.07060.07140.07240.07400.0934
    60.09100.07460.07420.07230.07260.07340.07580.07740.0972
    70.10100.07830.07510.07460.07530.07600.07770.07970.1098
    80.14420.09230.08030.08030.07820.07720.07770.09320.1470
    90.27730.18720.11060.09020.08280.08480.10390.17230.2604
    下载: 导出CSV 
    | 显示表格

    (2) 新方法与现有方法的标定性能对比。本文对比最优的3×3稀疏光场标定方法与文献[15-17]方法的标定性能。射线重投影误差和标定时间对比结果分别保存在表5表6。其中,由于文献[15,16]方法都是利用离焦光场图像进行标定的,而数据集C, D中都是对焦光场图像,所以文献[15,16]方法无法使用C, D进行标定,只能使用A, B, E进行标定。而本方法和文献[17]方法从光场图像提取子视图,对标定需要的图像没有限制,因此可以使用任意光场图像进行标定。文献[15,16]方法的标定结果直接来源于他们的论文;Dansereau等人方法[17]的标定误差和标定精度由他们发布的Matlab工具箱LFToolbox0.5得到。结果表明,对比文献[15,16]方法,本方法的射线重投影误差最小,而且速度更快;而与文献[17]方法对比,3×3稀疏光场的标定方法即使减少了输入子视角个数,但总的标定误差保持一致,在PlenCalCVPR2013DatasetA的标定误差仅为0.0714 mm;而且在5个公开数据集的平均标定时间从101.27 s减少到30.99 s,标定速度提高70%以上。

    表 5  不同方法的射线重投影误差对比(mm)
    数据集文献[15]文献[16]文献[17]3×3稀疏光场
    A(10)0.2180.2140.07490.0728
    B(10)0.1470.1420.04550.0432
    C(12)0.09170.0882
    D(10)0.08450.0811
    E(17)0.5580.4480.1940.183
    下载: 导出CSV 
    | 显示表格
    表 6  不同方法的标定时间对比(s)
    数据集文献[15]文献[16]文献[17]3×3稀疏光场
    A(10)1928183100.0532.22
    B(10)4427416100.9331.25
    C(12)90.9134.08
    D(10)113.4930.78
    E(17)13558752.6626.64
    下载: 导出CSV 
    | 显示表格

    为了更具体对比新方法和文献[17]方法的标定结果,本文记录两种方法在标定的4个步骤的运行时间。实验过程保证计算机处于相同运行状况,确保足够的CPU资源和内存。最终,实验得到4个阶段的标定时间记录在图7。4个阶段中,新方法在求初值、畸变优化和进一步优化的时间都减少70%以上,但在无畸变优化这一步花费的时间仍然很多。最终,实验结果证明新方法在标定精度和标定速度同时取得很好的表现。

    图 7  光场相机标定中4个阶段的运行时间对比

    本文基于稀疏光场成像模型优化光场数据,提出光场相机快速标定算法。该算法以清晰度作为图像质量评价指标,从9×9稠密子视图中提取高质量、具有代表性的稀疏子视图,建立7×7, 5×5和3×3共3种稀疏光场。对比不同稀疏光场的标定结果,本文发现3×3稀疏光场的标定性能最优;对比现有最优方法[17],新方法不仅提高平均标定速度70%以上,在现有5个数据集的平均标定时间从101.27 s减少到30.99 s,而且保持标定精度在最优水平,在PlenCalCVPR2013DatasetA的标定误差仅为0.0714 mm。虽然新方法的标定速度得到很大提高,但仍需进一步提高以满足工业检测对标定快速性的要求。未来,研究者可从光场相机投影模型、参数初值求解及优化等不同角度出发,进一步加快光场相机标定速度,提高光场相机在工业检测的应用表现。

  • 图  1  光场相机在工业检测的应用:PCB检测

    图  2  光场图像、微透镜子图像及光场子视图的形成

    图  3  光场相机、虚拟相机阵列模型及子视图质量

    图  4  3种稀疏光场成像模型

    图  5  棋盘格光场图像数据集

    图  6  标定时间随视角个数的变化

    图  7  光场相机标定中4个阶段的运行时间对比

    表  1  标定数据集

    数据集数量(张)尺寸
    (mm)
    角点数量
    (个)
    图像大小
    (像素)
    视角数量
    (个)
    A103.61×3.6119×193280×32809×9
    B103.61×3.6119×193280×32809×9
    C127.22×7.2219×193280×32809×9
    D107.22×7.2219×193280×32809×9
    E1735.0×35.16×83280×32809×9
    下载: 导出CSV

    表  2  不同稀疏光场方案的射线重投影误差(mm)和标定时间(s)

    数据集9×97×75×53×3 s=13×3 s=2
    A(10)0.0749(109.43)0.0733(83.3)0.0739(34.85)0.0714(19.73)0.0728(17.87)
    B(10)0.0455(102.47)0.0439(73.18)0.0419(36.14)0.0403(16.52)0.0432(16.46)
    C(12)0.0917(120.28)0.0901(90.34)0.0872(42.44)0.0910(18.72)0.0825(19.09)
    D(10)0.0845(131.38)0.0805(74.49)0.0805(35.36)0.0760(16.56)0.0811(15.20)
    E(17)0.1941(42.81)0.1883(46.09)0.1765(19.47)0.1581(8.39)0.1838(7.87)
    下载: 导出CSV

    表  3  9×9稠密光场标定方法在不同子视图的标定误差

    位置123456789
    10.12710.09360.07830.08260.08420.08270.08280.10470.1586
    20.08540.08140.08370.08210.08110.08240.08350.08100.0941
    30.07950.08230.08000.07620.07480.07680.08110.08210.0809
    40.07890.08250.07990.07320.07190.07430.07910.08120.0777
    50.07850.08180.07810.07280.07180.07470.07970.08150.0769
    60.07980.08160.08080.07580.07550.07850.08570.08590.0788
    70.08240.08450.08410.08150.08200.08510.09030.08470.0833
    80.10090.08300.08690.09090.08930.08960.08680.08240.0979
    90.21540.13900.08760.08710.08770.08550.08390.12190.1937
    下载: 导出CSV

    表  4  3×3稀疏光场标定方法在不同子视图的标定误差

    位置123456789
    10.18310.12900.08690.07960.07830.08030.09490.14470.2174
    20.11780.08290.07650.07460.07400.07410.07600.08790.1363
    30.09330.07610.07320.07180.07140.07140.07230.07700.1051
    40.08870.07640.07380.07070.07050.07090.07160.07390.0954
    50.08840.07550.07320.07070.07060.07140.07240.07400.0934
    60.09100.07460.07420.07230.07260.07340.07580.07740.0972
    70.10100.07830.07510.07460.07530.07600.07770.07970.1098
    80.14420.09230.08030.08030.07820.07720.07770.09320.1470
    90.27730.18720.11060.09020.08280.08480.10390.17230.2604
    下载: 导出CSV

    表  5  不同方法的射线重投影误差对比(mm)

    数据集文献[15]文献[16]文献[17]3×3稀疏光场
    A(10)0.2180.2140.07490.0728
    B(10)0.1470.1420.04550.0432
    C(12)0.09170.0882
    D(10)0.08450.0811
    E(17)0.5580.4480.1940.183
    下载: 导出CSV

    表  6  不同方法的标定时间对比(s)

    数据集文献[15]文献[16]文献[17]3×3稀疏光场
    A(10)1928183100.0532.22
    B(10)4427416100.9331.25
    C(12)90.9134.08
    D(10)113.4930.78
    E(17)13558752.6626.64
    下载: 导出CSV
  • [1] 周志良. 光场成像技术研究[D]. [博士论文], 中国科学技术大学, 2012.

    ZHOU Zhiliang. Research on light field imaging technology[D]. [Ph. D. dissertation], University of Science and Technology of China, 2012.
    [2] 张春萍, 王庆. 光场相机成像模型及参数标定方法综述[J]. 中国激光, 2016, 43(6): 264–275. doi: 10.3788/CJL201643.0609004

    ZHANG Chunping and WANG Qing. Survey on imaging model and calibration of light field camera[J]. Chinese Journal of Lasers, 2016, 43(6): 264–275. doi: 10.3788/CJL201643.0609004
    [3] 方璐, 戴琼海. 计算光场成像[J]. 光学学报, 2020, 40(1): 0111001. doi: 10.3788/AOS202040.0111001

    FANG Lu and DAI Qionghai. Computational light field imaging[J]. Acta Optica Sinica, 2020, 40(1): 0111001. doi: 10.3788/AOS202040.0111001
    [4] HEINZE C, SPYROPOULOS S, HUSSMANN S, et al. Automated robust metric calibration algorithm for multifocus plenoptic cameras[J]. IEEE Transactions on Instrumentation and Measurement, 2016, 65(5): 1197–1205. doi: 10.1109/TIM.2015.2507412
    [5] ILLGNER K, RESTREPO J, JAISWAL S P, et al. Lightfield imaging for industrial applications[J]. SPIE, 2020, 11525, 1152526.
    [6] 刘艳, 李腾飞. 对张正友相机标定法的改进研究[J]. 光学技术, 2014, 40(6): 565–570. doi: 10.13741/j.cnki.11-1879/o4.2014.06.017

    LIU Yan and LI Tengfei. Research of the improvement of Zhang's camera calibration method[J]. Optical Technique, 2014, 40(6): 565–570. doi: 10.13741/j.cnki.11-1879/o4.2014.06.017
    [7] CHUCHVARA A, BARSI A, and GOTCHEV A. Fast and accurate depth estimation from sparse light fields[J]. IEEE Transactions on Image Processing, 2020, 29: 2492–2506. doi: 10.1109/TIP.2019.2959233
    [8] HE Bingwei and LI Y F. A novel method for camera calibration using vanishing points[C]. 14th International Conference on Mechatronics and Machine Vision in Practice, Xiamen, China, 2007: 44–47.
    [9] 孟宪哲, 牛少彰, 吴小媚, 等. 基于相机标定的非对称裁剪检测算法[J]. 电子与信息学报, 2012, 34(10): 2409–2414. doi: 10.3724/SP.J.1146.2012.00357

    MENG Xianzhe, NIU Shaozhang, WU Xiaomei, et al. Detecting asymmetric cropping based on camera calibration[J]. Journal of Electronics &Information Technology, 2012, 34(10): 2409–2414. doi: 10.3724/SP.J.1146.2012.00357
    [10] 刘碧霞, 李绍滋, 郭锋, 等. 一种简单快速的相机标定新方法[J]. 计算机工程与科学, 2011, 33(1): 88–93. doi: 10.3969/j.issn.1007-130X.2011.01.017

    LIU Bixia, LI Shaozi, GUO Feng, et al. A new easy fast camera self-calibration technique[J]. Computer Engineering and Science, 2011, 33(1): 88–93. doi: 10.3969/j.issn.1007-130X.2011.01.017
    [11] 陈钊正, 陈启美. 基于摄像机自标定的视频对比度能见度检测算法与实现[J]. 电子与信息学报, 2010, 32(12): 2907–2912. doi: 10.3724/SP.J.1146.2009.01630

    CHEN Zhaozheng and CHEN Qimei. Video contrast visibility detection algorithm and its implementation based on camera self-calibration[J]. Journal of Electronics &Information Technology, 2010, 32(12): 2907–2912. doi: 10.3724/SP.J.1146.2009.01630
    [12] SU Pochang, SHEN Ju, XU Wanxin, et al. A fast and robust extrinsic calibration for RGB-D camera networks[J]. Sensors, 2018, 18(1): 235. doi: 10.3390/s18010235
    [13] MIKHELSON I V, LEE P G, SAHAKIAN A V, et al. Automatic, fast, online calibration between depth and color cameras[J]. Journal of Visual Communication and Image Representation, 2014, 25(1): 218–226. doi: 10.1016/j.jvcir.2013.03.010
    [14] GARAU N, DE NATALE F G B, and CONCI N. Fast automatic camera network calibration through human mesh recovery[J]. Journal of Real-Time Image Processing, 2020, 17(6): 1757–1768. doi: 10.1007/s11554-020-01002-w
    [15] BOK Y, JEON H G, and KWEON I S. Geometric calibration of micro-lens-based light field cameras using line features[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(2): 287–300. doi: 10.1109/TPAMI.2016.2541145
    [16] LIU Yuxuan, MO Fan, ALEKSANDROV M, et al. Accurate calibration of standard plenoptic cameras using corner features from raw images[J]. Optics Express, 2021, 29(1): 158–169. doi: 10.1364/OE.405168
    [17] DANSEREAU D G, PIZARRO O, and WILLIAMS S B. Decoding, calibration and rectification for Lenselet-based Plenoptic cameras[C]. 2013 IEEE Conference on Computer Vision and Pattern Recognition, Portland, USA, 2013: 1027–1034.
    [18] DIGUMARTI S T, DANIEL J, RAVENDRAN A, et al. Unsupervised learning of depth estimation and visual odometry for sparse light field cameras[C]. 2021 IEEE/RSJ International Conference on Intelligent Robots and Systems, Prague, Czech Republic, 2021: 278–285.
    [19] MONTEIRO N B, BARRETO J P, and GASPAR J A. Standard plenoptic cameras mapping to camera arrays and calibration based on DLT[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2020, 30(11): 4090–4099. doi: 10.1109/TCSVT.2019.2954305
  • 期刊类型引用(2)

    1. 王常乐,陈士雪,王金甲. 光场显微镜在神经光学成像领域的应用. 光学技术. 2025(01): 25-35+53 . 百度学术
    2. 王浩猛,坎标,芮明先,马顺喜. 基于双目视觉的板材平面测量研究. 计算机测量与控制. 2023(09): 42-47 . 百度学术

    其他类型引用(5)

  • 加载中
图(7) / 表(6)
计量
  • 文章访问数:  1533
  • HTML全文浏览量:  517
  • PDF下载量:  134
  • 被引次数: 7
出版历程
  • 收稿日期:  2021-10-26
  • 修回日期:  2021-12-21
  • 录用日期:  2021-12-28
  • 网络出版日期:  2022-01-12
  • 刊出日期:  2022-05-25

目录

/

返回文章
返回