0030] 图2j为用ZNCC算法处理(2a-2b)图像对的结果图,ZNCC为文献[18](0.Faugeras, B.Hotz^.Mathieu^.Vi^ville^.Zhang^.Fua^.Th^ron^.Moll^.Berry, J.Vuillemin,P.Bertin and C.Proy.Real time correlation based stereo:algorithm implementations and applications. INRIA Technical Report, 1993)中的方法;
[0031] 图2k为用ANCC算法处理(2a_2b)图像对的结果图,ANCC为文献[1 ] (Y.Heo,K.Lee, and S·Lee,"Robust Stereo Matching Using Adaptive Normalized Cross-correlation,'' IEEE Trans .Patt .Anal .Mach. Intell ·,vol · 33,pp·807-822,2011 ·)中的方 法;
[0032] 图21为用本文算法处理(2a_2b)图像对的结果图;
[0033]图2m为用BT算法处理(2c-2d)图像对的结果图;
[0034]图2n为用RG算法处理(2c-2d)图像对的结果图;
[0035]图2〇为用CT算法处理(2c_2d)图像对的结果图;
[0036]图2p为用DIFFCT算法处理(2c-2d)图像对的结果图;
[0037]图2q为用Δ ADCT算法处理(2c_2d)图像对的结果图;
[0038]图2r为用ZNCC算法处理(2c-2d)图像对的结果图;
[0039]图2s为用ANCC算法处理(2c_2d)图像对的结果图;
[0040]图2t为本方法处理(2c_2d)图像对的结果图;
[0041 ]图3a为不同光照条件下的平均视差错误率图;
[0042]图3b为不同曝光条件下的平均视差错误率图;
[0043] 图4a为一个理想边界的一维示例图;
[0044] 图4b为带有取样噪声或非期望图案边界的一维示例图;
[0045] 图5a为小孩图片原始图像图;
[0046] 图5b为目前视差优化方法带有置信补偿的图像图;
[0047] 图5c为目前视差优化方法不带有置信补偿的图像图;
[0048]图6a为画像原始图像图;
[0049] 图6b为利用[12] (C· Rhemann,A· Hosni,M· Bleyer,and et al ·,"Fast Cost-volume Filtering for Visual Correspondence and Beyond,',Proc · IEEE Conf .Comput.Vis.Patt.Recognit.,pp.3017_3024,2011 ·)中方法处理后结果图;
[0050] 图6c为利用[10]中方法处理后结果图;
[0051 ]图6d为利用本方法处理后结果图;
[0052] 图7a为道路A左视图;
[0053] 图7b为道路A右视图;
[0054] 图7c为道路A视差图;
[0055] 图8a为道路B左视图;
[0056] 图8b为道路B右视图;
[0057] 图8c为道路13视差图;
[0058] 图9a为道路C左视图;
[0059] 图9b为道路C右视图;
[0060] 图9c为道路C视差图;
[0061 ] 图10a为道路D左视图;
[0062] 图10b为道路D右视图;
[0063] 图10c为道路D视差图;
[0064] 图11为3X3区域图;
[0065]图12为本发明流程图。
【具体实施方式】
【具体实施方式】 [0066] 一:结合图12说明本实施方式,本实施方式的一种改进的光学仿射 不变双目立体匹配代价与视差优化方法,具体是按照以下步骤制备的:
[0067] 步骤一、左右两个摄像头分别自动摄取两幅图像,左摄像头摄取的为左视图,右摄 像头摄取的是右视图,假设输入图像的大小为mXn;以前行方向为参照,左侧设置左摄像 头,右侧设置右摄像头;
[0068] 步骤二、对步骤一中的左视图和右视图进行改进的Census变换;
[0069] 步骤三、计算步骤一中的左视图和右视图的相对梯度;
[0070] 步骤四、根据步骤二和步骤三的结果计算双目立体匹配代价;
[0071 ] 步骤五、对立体匹配代价进行叠加;
[0072]步骤六、建立视差置信度;
[0073] 步骤七、对图像的每一行,从(左)1到(右)N视差置信度传递;
[0074] 步骤八、对图像的每一行,从(右)N到(左)1视差置信度传递;
[0075] 步骤九、对图像的每一列,(从上到下)从1到Μ视差置信度传递;
[0076]步骤十、对图像的每一列,从(下)Μ到(上)1视差置信度传递;
[0077]步骤十一、得到优化后的视差图Df。
【具体实施方式】 [0078] 二:本实施方式与一不同的是:所述步骤二中对步骤 一中的左视图和右视图进行改进的Census变换;具体过程为:
[0079] η)为了魅冰I举仿射夺仆问题,本文采用文献[3]的光学模型:
[0080]
[0081] 其中,mdPms是视角不相关和视角相关的贡献权值,e代表光照强度,b代表表面反 射率,α代表漫射光;
[0082] 当mse变化时,光照即发生变化;α与视角相关,但是它的值仍是未知的,所以同样 需要估计,
[0083] 通过假设3X3区域内光照是不变的,ms与α梯度无关,待匹配像素的区别仅在光照 强度e;
[0084] (2)传统的Census变换定义为中心像素 p与其邻域内的像素 qeN(p)的比较,然而 改进的Census变换是基于相对梯度的:
[0085]
[0086] 其中,穴G(/7;)代表以P为中心的3X3区域内相对梯度呢(^7)的平均值,如图η, Ν(ρ)代表像素 ρ的一个邻域,q为q(x,y),ρ为p(x,y) ;T(p,q)为Census变换,RG(q)为像素 q的 相对梯度,相对梯度运算公式为:
[0087] RG(x,y)=G(x,y)/(l+Gmax(x,y))
[0088]其中,RG(x,y)是像素 p(x,y)的相对梯度,Gmax(x,y)是以像素 p(x,y)为中心的3X3 区域内梯度G(x,y)的最大值;
[0089] Gmax(x,y) =max( |G(x+m,y+n) |),-l<m<l,-l<n<l
[0090] 式中,m,n是输入图像的大小。
[0091] 根据图1实例可见,采用相对梯度算法能够得到更加清晰的物体轮廓信息。
[0092] 其它步骤及参数与【具体实施方式】一相同。
【具体实施方式】 [0093] 三:本实施方式与一或二不同的是:所述步骤四中根 据步骤二和步骤三的结果计算双目立体匹配代价;具体过程为:
[0094] (3)将(2)的结果T (p,q)串接形成位串€:〇> = ?i/e γ(, ,其中0代表串接 操作,在执行(4)匹配代价计算之前,左和右视图各执行一次以上步骤的操作,然后执行 (4);
[0095] (4)最后Census变换代价CcT(p,d)通过左视图中像素 ρ和右视图中像素 p-d的位串 的汉明距离给出;
[0096]
[0097] 其中,Ci和Cr分别代表经过步骤(1-3)变换后的左右图像,d代表某一个视差值;Cct (p,d)为Census变换代价;
[0098] (5)然后,结合步骤(1-4),最终的双目立体匹配代价如下:
[0099] Crgct (p,d) = p ( Cct (p,d) /Lct,λα) +P (Crg (p,d),Arg)
[0100] 其中,CRGCT(p,d)为相对梯度Census变换的代价,P为自定义的非线性函数,它的参 数有两个为P(c,λ),λα为Census变换的参数,A rg为相对梯度的参数,Lcr代表位串的长度(本 发明中Lct=9),Crg是像素 p和p-d的左视图RGi(p)和右视图RGr(p-d)相对梯度图像的绝对差 值;
[0101 ] Crg(p,d)= |RGi(p)-RGr(p-d) | 〇
[0102] P(c,A)是一个非线性函数,p(c,A) = l-exp(-c/A),其作用是将改进的Census变换 和相对梯度的匹配代价映射到[0,1]范围内,并且使得仅用两个参数λα( = 55)和Xrg( = 95) 就可以控制算法的性能。
[0103] 本文提出的双目立体匹配代价算法的实验结果如图2a、2b、2c、2d、2e、2f、2g、2h、 21、2」、21^、21、2111、211、2〇、2?、29、2匕28、2133、313所示。表1为各种算法的运行效率比较结 果,测试时采用427x370像素和70个差分层读的Aloe图片作为测试对象,测试设备为2.0GHz 因特尔双核笔记本电脑,其RAM大小为2GB,算法没有进行并行优化,编程语言为C语言,从实 验结果可以看出本文提出的算法具有较高的精度和运行效率。
[0104] 不同双目视差立体匹配代价算法在不同光照与相机曝光度组合情况下的实验结 果比车交。其中,BT[ 11 ] (S·Birchfield and C. Tomasi , UA Pixel Dissimilarity Measure That is Insensitive to Image Sampling/' IEEE Trans .Patt. Anal.Mach. Intel1., vol·20,no·4,pp·401-406,Apr·1998·),RG[3]