期刊文章详细信息
文献类型:期刊文章
GUO Yi;LU Dongshan;LIU Baolong(Centre for Information & Technology,Xi’an Technological University,Xi’an 710021,China;School of Computer Science and Engineering,Xi’an Technological University,Xi’an 710021,China)
机构地区:[1]西安工业大学信息技术中心,西安710021 [2]西安工业大学计算机科学与工程学院,西安710021
基 金:未央区科技计划项目(201836)。
年 份:2020
卷 号:40
期 号:5
起止页码:533-540
语 种:中文
收录情况:CAS、IC、UPD、ZGKJHX、普通刊
摘 要:由于传统的区域立体匹配方法均基于灰度特性,对于纹理少、光照不均匀等情况难以找到正确的对应点。本文提出基于两层W循环多重网格的变分方法对左右图像间进行立体匹配,通过灰度值,梯度值和平滑项这三个不同参数的组合来定义匹配代价函数,并通过实际的立体匹配图像对给予不同的权重值,再通过两层W循环多重网格对匹配代价函数进行优化求得最优解,进一步提高了生成视差图的连续性。通过与真实视差图之间的平方根误差和整体误差两项指标进行对比,结果表明本文视差图出错率比传统立体匹配方法降低20%左右。针对窄基线下纹理特征不明显的重建表面,文中方法鲁棒性较强,可以得到更为平滑准确的视差图。通过反向视差图对求得的牙齿视差图进行对比得到视差分数图,验证了视差图的正确性。
关 键 词:双目视觉 立体匹配 W循环多重网格 双目视差图
分 类 号:TP183]
参考文献:
正在载入数据...
二级参考文献:
正在载入数据...
耦合文献:
正在载入数据...
引证文献:
正在载入数据...
二级引证文献:
正在载入数据...
同被引文献:
正在载入数据...