版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領
文檔簡介
微光雙目系統(tǒng):低照度環(huán)境下三維測量方法的深度探索與創(chuàng)新一、引言1.1研究背景與意義在當今科技飛速發(fā)展的時代,三維測量技術作為獲取物體空間信息的關鍵手段,廣泛應用于工業(yè)制造、計算機視覺、機器人導航、文物保護等眾多領域。隨著應用場景的不斷拓展,對三維測量技術在復雜環(huán)境下的性能要求也日益提高,尤其是在低照度環(huán)境中,傳統(tǒng)的三維測量方法面臨著諸多挑戰(zhàn)。微光雙目系統(tǒng)作為一種能夠在低照度環(huán)境下工作的視覺系統(tǒng),為解決低照度環(huán)境下的三維測量問題提供了新的途徑。在許多實際應用中,如夜間安防監(jiān)控、野外應急救援、無人駕駛夜間行駛、地下洞穴或黑暗倉庫的勘查等場景,光線條件往往十分有限。在這些低照度環(huán)境中,傳統(tǒng)的基于可見光的三維測量方法,由于缺乏足夠的光照,難以獲取清晰的圖像,導致測量精度大幅下降甚至無法工作。例如,在夜間安防監(jiān)控中,若無法準確測量目標物體的三維信息,就難以對目標進行精準定位和追蹤,從而降低了安防系統(tǒng)的有效性;在無人駕駛領域,夜間行駛時低照度環(huán)境下的三維測量精度直接影響到車輛的行駛安全,若不能準確感知周圍環(huán)境中物體的位置和形狀,可能會引發(fā)嚴重的交通事故。微光雙目系統(tǒng)通過模擬人類雙眼的視覺原理,利用兩個微光攝像頭從不同角度獲取物體的圖像,并通過對這些圖像的處理和分析來計算物體的三維信息。其工作原理基于三角測量原理,通過計算兩個攝像頭之間的視差來確定物體的深度信息。與其他低照度環(huán)境下的測量技術相比,微光雙目系統(tǒng)具有獨特的優(yōu)勢。例如,與紅外成像技術相比,微光雙目系統(tǒng)能夠提供更豐富的紋理和細節(jié)信息,因為它是基于物體對微光的反射成像,而紅外成像主要反映物體的熱輻射特性。同時,微光雙目系統(tǒng)不需要額外的主動光源,避免了主動光源可能帶來的暴露風險和對被觀測物體的干擾,具有更好的隱蔽性和環(huán)境適應性。對微光雙目系統(tǒng)低照度環(huán)境三維測量方法的研究具有重要的理論意義和實際應用價值。從理論層面來看,深入研究微光雙目系統(tǒng)在低照度環(huán)境下的三維測量方法,有助于進一步完善計算機視覺和三維測量領域的理論體系。低照度環(huán)境下的圖像具有信噪比低、對比度差、細節(jié)模糊等特點,如何在這種復雜條件下準確提取圖像特征、實現(xiàn)高精度的立體匹配和三維重建,是對現(xiàn)有理論和算法的挑戰(zhàn)與拓展。通過解決這些問題,可以推動相關理論的發(fā)展,為后續(xù)的研究提供更堅實的基礎。在實際應用方面,微光雙目系統(tǒng)低照度環(huán)境三維測量方法的研究成果具有廣泛的應用前景。在工業(yè)制造領域,可用于夜間或低照度環(huán)境下的生產(chǎn)線檢測、質(zhì)量控制等環(huán)節(jié),提高生產(chǎn)效率和產(chǎn)品質(zhì)量;在軍事領域,能夠為夜間作戰(zhàn)、偵察等任務提供關鍵的環(huán)境感知能力,增強部隊的作戰(zhàn)能力和生存能力;在文物保護領域,對于一些對光照敏感的文物,微光雙目系統(tǒng)可以在低照度條件下進行三維掃描和建模,實現(xiàn)對文物的數(shù)字化保護和研究。1.2國內(nèi)外研究現(xiàn)狀1.2.1立體匹配研究進展立體匹配作為從平面圖像中恢復深度信息的關鍵技術,在計算機視覺領域一直是研究的熱點和難點,近年來取得了顯著的進展。國外在計算機立體視覺研究方面起步較早,在立體匹配算法的基礎理論和創(chuàng)新應用上進行了大量的探索。Roy最早將圖割算法應用于立體匹配,該算法有效克服了其他全局優(yōu)化算法(如動態(tài)規(guī)劃算法)生成視差圖時產(chǎn)生的橫向條紋瑕疵問題,避免了視差在臨近極線處不連續(xù)的情況。然而,其生成的視差圖存在輪廓邊緣模糊、視差層區(qū)分度低的缺點。Geiger等人針對高分辨率圖像立體匹配運算時間長的問題,提出使用強約束點(紋理或特征信息較為豐富)作為支撐點,在強約束點之間通過三角剖分對視差圖進行插值計算,并結合OpenMP技術在通用CPU上實現(xiàn)并行計算,成功在通用微型計算機上實現(xiàn)了實時立體匹配。但該方法的匹配效果與基于全局優(yōu)化的匹配算法相比仍有一定差距。國內(nèi)對立體視覺的研究雖起步較晚,但發(fā)展迅速,在改進立體匹配算法以提高精度和效率方面取得了諸多成果。早期主要采用基于特征點匹配的方法,隨著技術的不斷進步,后續(xù)的改進工作重點聚焦于提升全局優(yōu)化算法的性能和準確度。許多研究采用對待匹配圖像進行圖像分割后,結合能量最優(yōu)化的方法進行立體匹配。例如,尹等人采用均值平移算法將參考圖像根據(jù)顏色信息快速聚類,計算初始視差圖,將分割結果作為能量視差函數(shù)的一個參考項,最后采用圖割算法求取使全局能量最小的視差最優(yōu)分配。這種基于圖像分割的立體匹配方法,基于分割區(qū)域塊內(nèi)視差變化平滑的理論基礎,能有效處理大塊低紋理區(qū)域,提高匹配精度,更有利于估計視差圖的邊界。同時,通過分割減少了匹配基元,加快了運算速度,較好地解決了邊界模糊和低紋理區(qū)域的誤匹配問題。隨著深度學習的興起,基于深度神經(jīng)網(wǎng)絡的立體匹配方法成為研究的新方向。2015年提出的DeepMatching模型,使用簡單的CNN模型學習特征表示,并采用分層的匹配策略提高匹配精度。此后,PSMNet、GCNet等不同網(wǎng)絡結構和訓練策略的算法不斷涌現(xiàn),這些算法在精度和效率方面均取得了良好的成績,在深度學習立體匹配任務中得到廣泛應用。它們通過訓練端到端的神經(jīng)網(wǎng)絡,自動學習圖像特征,相比傳統(tǒng)方法具有更好的魯棒性和泛化能力。盡管立體匹配技術取得了上述進展,但仍面臨一些挑戰(zhàn)。在低紋理區(qū)域、遮擋區(qū)域以及光照變化劇烈的場景下,現(xiàn)有算法的匹配精度和可靠性仍有待提高。同時,如何在保證精度的前提下,進一步提高算法的實時性,以滿足如無人駕駛、實時監(jiān)控等對實時性要求較高的應用場景,也是當前研究需要解決的重要問題。此外,不同場景下的適應性問題也是立體匹配算法面臨的一大挑戰(zhàn),由于實際應用場景復雜多樣,單一的算法很難在所有場景下都表現(xiàn)出良好的性能,如何使算法具備更強的場景適應性,是未來研究的重要方向之一。1.2.2微光成像技術剖析微光成像技術,又稱為像增強技術,是通過帶像增強管的夜視鏡,對夜天光照亮的微弱目標像進行增強,以供觀察的光電成像技術。其基本原理是利用圖像增強器將夜空中微弱的自然光,如月光、星光、大氣灰光等增強幾百倍甚至幾萬倍,達到使人眼能夠進行遠距離觀察的程度。在這一過程中,圖像增強器是核心器件,它將輸入的微弱光信號轉化為電子信號,經(jīng)過電子倍增后再轉換為可見的光圖像輸出。微光成像技術涉及到多個關鍵技術。在探測器方面,常用的微光探測器有光電倍增管(PMT)和基于微通道板(MCP)的像增強器等。PMT具有很強的光電放大能力,其最小探測閾值可低至10^{-9}W/(cm^{2}·sr),比傳統(tǒng)的光學傳感器低4個數(shù)量級。基于MCP的像增強器則通過微通道板對電子進行倍增,具有體積小、重量輕、響應速度快等優(yōu)點。在光學系統(tǒng)設計上,需要考慮鏡頭的光學性能,如大相對孔徑以保證在低照度下能收集足夠的光線,合適的視場角以滿足不同應用場景的觀察需求,同時還要對光學系統(tǒng)進行雜散光抑制設計,以提高成像質(zhì)量。此外,信號處理技術也至關重要,包括對圖像信號的降噪、增強、對比度調(diào)整等處理,以提高微光圖像的清晰度和可讀性。微光成像技術在眾多領域有著廣泛的應用。在軍事領域,微光成像設備如微光夜視儀、微光瞄準鏡等是士兵夜間作戰(zhàn)、偵察、巡邏等任務的重要裝備,能夠幫助士兵在夜間發(fā)現(xiàn)目標、識別目標,提高作戰(zhàn)能力和生存能力。在安防監(jiān)控領域,微光攝像機可以在夜間或低照度環(huán)境下對監(jiān)控區(qū)域進行實時監(jiān)控,為保障公共安全提供重要支持。在天文觀測中,微光成像技術可用于觀測暗弱天體,幫助天文學家獲取更多宇宙信息。在海洋探測中,可用于對深海生物、海底地貌等的觀測,拓展人類對海洋的認知。在環(huán)境監(jiān)測領域,可用于夜間對野生動物的行為觀察、生態(tài)環(huán)境變化的監(jiān)測等。1.2.3微光立體測距研究綜述微光立體測距技術是在微光成像的基礎上,結合立體視覺原理實現(xiàn)對目標距離的測量。目前,微光立體測距技術的研究主要圍繞如何提高測距精度和可靠性展開。在硬件方面,不斷改進微光相機的性能,包括采用更靈敏的探測器、優(yōu)化光學鏡頭設計、提高相機的分辨率等。例如,一些新型的微光探測器在量子效率、噪聲性能等方面有了顯著提升,能夠獲取更清晰、更準確的微光圖像,為后續(xù)的立體匹配和測距提供更好的數(shù)據(jù)基礎。在光學鏡頭設計上,通過采用先進的光學材料和制造工藝,減小鏡頭的像差和畸變,提高成像質(zhì)量,從而提高測距精度。在算法方面,針對微光圖像信噪比低、對比度差等特點,研究人員提出了多種改進的立體匹配算法。一些算法在傳統(tǒng)立體匹配算法的基礎上,結合微光圖像的特性,對匹配代價計算、代價聚合、視差計算和優(yōu)化等環(huán)節(jié)進行改進。例如,在匹配代價計算中,考慮微光圖像的噪聲分布和紋理特征,采用更合適的匹配度量準則,以提高匹配的準確性。在代價聚合過程中,利用圖像的局部和全局信息,設計更有效的聚合策略,減少噪聲和低紋理區(qū)域對匹配結果的影響。還有一些研究將深度學習技術應用于微光立體測距,通過訓練深度神經(jīng)網(wǎng)絡來學習微光圖像的特征和立體匹配模式,提高算法的適應性和精度。然而,現(xiàn)有微光立體測距技術在低照度環(huán)境下仍存在一些局限性。首先,微光圖像的低信噪比和低對比度使得圖像中的特征提取和匹配變得困難,容易產(chǎn)生誤匹配,從而影響測距精度。其次,在復雜背景和遮擋情況下,算法的魯棒性不足,難以準確獲取目標的三維信息。此外,目前的技術在實時性方面也有待提高,對于一些需要快速響應的應用場景,如無人駕駛的夜間行駛,現(xiàn)有的微光立體測距算法可能無法滿足實時性要求。針對這些問題,未來的研究需要進一步探索新的硬件技術和算法,以提高微光立體測距技術在低照度環(huán)境下的性能。1.3研究內(nèi)容與結構安排本論文圍繞微光雙目系統(tǒng)低照度環(huán)境三維測量方法展開深入研究,旨在解決低照度環(huán)境下三維測量面臨的挑戰(zhàn),提高測量精度和可靠性,主要研究內(nèi)容如下:雙目立體視覺與微光成像理論研究:深入剖析雙目立體視覺的基礎理論,涵蓋攝像機成像模型、攝像機標定方法以及雙目立體視覺的工作原理。通過建立精確的成像模型,為后續(xù)的圖像匹配和三維計算提供理論依據(jù)。同時,對微光成像理論進行全面探討,包括微光成像探測器的工作原理、性能特點,以及微光成像技術在不同領域的應用現(xiàn)狀和發(fā)展趨勢,為微光雙目系統(tǒng)的設計和優(yōu)化提供理論支持?;趨^(qū)域信息的微光圖像匹配算法研究:對傳統(tǒng)半全局圖像匹配算法進行詳細分析,深入理解其匹配代價計算和代價聚合的原理。針對微光圖像的特點,如低信噪比、對比度差等問題,提出改進的圖像匹配算法。通過引入?yún)^(qū)域信息,改進匹配代價模塊和代價聚合模塊,提高算法在微光環(huán)境下的匹配精度和魯棒性。對改進算法進行視差計算及視差優(yōu)化,并通過在Middlebury數(shù)據(jù)集、仿真數(shù)據(jù)和微光數(shù)據(jù)上的實驗,驗證改進算法在低照度環(huán)境下的有效性和優(yōu)越性?;谏疃壬窠?jīng)網(wǎng)絡的圖像匹配算法研究:系統(tǒng)學習深度神經(jīng)網(wǎng)絡的基礎知識,包括神經(jīng)網(wǎng)絡的結構、訓練方法和應用場景。研究基于深度神經(jīng)網(wǎng)絡的立體匹配方法,如卷積神經(jīng)網(wǎng)絡在特征提取中的應用、空間金字塔池化模塊對特征融合的作用以及3DCNN在處理三維信息方面的優(yōu)勢。針對微光數(shù)據(jù)的特性,對現(xiàn)有深度神經(jīng)網(wǎng)絡模型進行改進,以提高其在微光環(huán)境下的圖像匹配能力。通過在KITTI公開數(shù)據(jù)集和微光數(shù)據(jù)上的實驗,評估改進模型的性能,并與傳統(tǒng)改進算法進行對比分析,展示基于深度神經(jīng)網(wǎng)絡的改進模型在低照度環(huán)境下的優(yōu)勢。論文各章節(jié)的結構布局與邏輯關系緊密相連。第一章引言部分,通過闡述研究背景與意義,說明微光雙目系統(tǒng)低照度環(huán)境三維測量方法研究的重要性和必要性。對國內(nèi)外研究現(xiàn)狀的綜述,明確當前研究的熱點和難點,為后續(xù)研究提供參考和方向。第二章相關技術理論,介紹雙目立體視覺理論和微光成像理論,為后續(xù)算法研究奠定理論基礎。第三章基于區(qū)域信息的微光圖像匹配算法研究和第四章基于深度神經(jīng)網(wǎng)絡的圖像匹配算法研究,分別從傳統(tǒng)算法改進和深度學習算法應用兩個角度,提出針對微光環(huán)境的圖像匹配算法,并通過實驗驗證算法的有效性。第五章總結與展望,對全文的研究工作進行總結,歸納研究成果和創(chuàng)新點,同時對未來的研究方向進行展望,指出進一步研究的重點和可能的突破點。二、相關技術理論基礎2.1雙目立體視覺理論雙目立體視覺作為微光雙目系統(tǒng)實現(xiàn)三維測量的核心理論基礎,通過模擬人類雙眼的視覺機制,利用兩個攝像頭從不同角度獲取物體的圖像信息,進而計算出物體的三維坐標,實現(xiàn)對物體的三維感知。其工作過程主要包括攝像機成像、攝像機標定以及基于視差原理的三維坐標計算等關鍵環(huán)節(jié),這些環(huán)節(jié)相互關聯(lián)、相互影響,共同決定了雙目立體視覺系統(tǒng)的性能和測量精度。2.1.1攝像機成像模型構建攝像機成像的基本原理基于小孔成像理論。在小孔成像模型中,光線通過一個極小的孔(相當于攝像機的鏡頭光心),在成像平面上形成倒立的實像。對于實際的攝像機,其成像過程更為復雜,涉及多個坐標系之間的轉換。世界坐標系(O_wX_wY_wZ_w)是一個三維直角坐標系,用于描述物體在真實世界中的位置和姿態(tài),其原點和坐標軸方向可以根據(jù)具體應用場景自由定義。相機坐標系(O_cX_cY_cZ_c)的原點位于攝像機鏡頭的光心,X_c、Y_c軸分別與圖像平面的兩邊平行,Z_c軸為鏡頭光軸,與圖像平面垂直。圖像坐標系(O_1XY)的原點位于圖像平面的中心,坐標軸單位通常為毫米,用于描述圖像中像素點的物理位置。像素坐標系(OPu)的原點位于圖像的左上角,u、v軸分別與圖像平面的兩邊平行,坐標軸單位為像素,它直接反映了圖像在計算機中的存儲形式。從世界坐標系到相機坐標系的轉換通過旋轉矩陣R和平移向量t來實現(xiàn),其數(shù)學表達式為:\begin{bmatrix}X_c\\Y_c\\Z_c\end{bmatrix}=R\begin{bmatrix}X_w\\Y_w\\Z_w\end{bmatrix}+t其中,R是一個3\times3的正交矩陣,包含三個旋轉角度參數(shù),用于描述相機坐標系相對于世界坐標系的旋轉姿態(tài);t是一個3\times1的向量,包含三個平移參數(shù),用于描述相機坐標系原點在世界坐標系中的位置。從相機坐標系到圖像坐標系的轉換基于透視投影原理,其公式為:\begin{cases}x=\frac{fX_c}{Z_c}\\y=\frac{fY_c}{Z_c}\end{cases}其中,f是相機的焦距,(x,y)是點在圖像坐標系中的坐標,(X_c,Y_c,Z_c)是點在相機坐標系中的坐標。這個轉換過程將三維的相機坐標系中的點投影到二維的圖像坐標系上,同時引入了深度信息Z_c的影響。從圖像坐標系到像素坐標系的轉換通過尺度因子和原點偏移來實現(xiàn),公式為:\begin{cases}u=\frac{x}{dx}+u_0\\v=\frac{y}{dy}+v_0\end{cases}其中,(u,v)是點在像素坐標系中的坐標,(x,y)是點在圖像坐標系中的坐標,dx和dy分別是像素在x和y方向上的物理尺寸,(u_0,v_0)是圖像坐標系原點在像素坐標系中的坐標,通常位于圖像的中心。綜合以上三個轉換過程,可以得到從世界坐標系到像素坐標系的投影矩陣M,它包含了相機的內(nèi)參矩陣K和外參矩陣[R|t],即:M=K[R|t]=\begin{bmatrix}f_x&0&u_0&0\\0&f_y&v_0&0\\0&0&1&0\end{bmatrix}\begin{bmatrix}r_{11}&r_{12}&r_{13}&t_x\\r_{21}&r_{22}&r_{23}&t_y\\r_{31}&r_{32}&r_{33}&t_z\\0&0&0&1\end{bmatrix}其中,f_x=\frac{f}{dx},f_y=\frac{f}{dy},分別是相機在x和y方向上的等效焦距。相機內(nèi)參矩陣K反映了相機自身的固有屬性,如焦距、主點位置等,在相機制造完成后通常是固定不變的;外參矩陣[R|t]則描述了相機在世界坐標系中的位置和姿態(tài),會隨著相機的安裝和使用場景的變化而改變。在實際應用中,由于攝像機鏡頭的制造工藝和光學特性等因素,實際成像會存在各種畸變,主要包括徑向畸變和切向畸變。徑向畸變是由于鏡頭的徑向不對稱性導致的,離鏡頭中心越遠,畸變越明顯,常見的徑向畸變有桶形畸變和枕形畸變。切向畸變則是由于鏡頭安裝時與圖像平面不平行或鏡頭各部分的折射率不均勻等原因引起的。為了補償這些畸變對成像的影響,通常在成像模型中引入畸變參數(shù),通過建立畸變模型對圖像進行校正,使成像更加接近理想狀態(tài),提高后續(xù)圖像處理和三維測量的精度。2.1.2攝像機標定方法探究攝像機標定的目的是確定攝像機的內(nèi)部參數(shù)(如焦距、主點位置、像素尺寸等)和外部參數(shù)(如旋轉矩陣和平移向量),以及畸變參數(shù),從而建立起世界坐標系與圖像坐標系之間的準確映射關系。這些參數(shù)對于后續(xù)的圖像匹配、三維重建等任務至關重要,標定結果的精度直接影響到整個雙目立體視覺系統(tǒng)的性能和測量精度。傳統(tǒng)相機標定法是較為常用的標定方法之一,它需要使用尺寸已知的標定物,通過建立標定物上坐標已知的點與其圖像點之間的對應關系,利用一定的算法來求解相機模型的內(nèi)外參數(shù)。根據(jù)標定物的不同,可分為三維標定物和平面型標定物。使用三維標定物時,可由單幅圖像進行標定,其標定精度相對較高,但高精密三維標定物的加工和維護成本較高,對制作工藝和環(huán)境要求嚴格。平面型標定物制作相對簡單,精度也較易保證,但標定時通常需要采用兩幅或兩幅以上的圖像,以獲取足夠的約束條件來求解相機參數(shù)。傳統(tǒng)相機標定法的優(yōu)點是可以適用于任意的攝像機模型,標定精度較高;然而,其缺點也較為明顯,標定過程較為復雜,需要高精度的已知結構信息,在一些實際應用場景中,可能無法方便地放置標定物,從而限制了該方法的應用。攝像機自標定方法則僅依靠多幅圖像之間的對應關系進行標定,無需使用標定物。這種方法的靈活性較強,潛在應用范圍廣,可對相機進行在線定標,適用于一些無法使用傳統(tǒng)標定物的特殊場景,如移動機器人在未知環(huán)境中的視覺系統(tǒng)標定。但自標定方法通常是非線性標定,其算法魯棒性較差,對圖像的質(zhì)量和特征點的提取要求較高,在實際應用中容易受到噪聲、遮擋等因素的干擾,導致標定結果的準確性和穩(wěn)定性下降。基于主動視覺的相機標定法是利用已知相機的某些運動信息來對相機進行標定。該方法不需要標定物,通過控制相機做某些特殊運動,利用這種運動的特殊性來計算相機內(nèi)部參數(shù)。例如,讓相機沿著特定的軌跡平移或旋轉,通過分析不同位置和姿態(tài)下拍攝的圖像之間的關系,求解相機參數(shù)。這種方法的優(yōu)點是算法相對簡單,往往能夠獲得線性解,魯棒性較高;但缺點是系統(tǒng)成本較高,需要專門的設備來控制相機的運動,實驗設備昂貴,實驗條件要求高,而且不適合于運動參數(shù)未知或無法控制的場合,限制了其在一些實際場景中的應用。在實際選擇攝像機標定方法時,需要綜合考慮多種因素。如果對標定精度要求較高,且能夠方便地使用標定物,傳統(tǒng)相機標定法是一個較好的選擇;若應用場景對靈活性要求較高,需要對相機進行在線標定,攝像機自標定方法可能更為合適;而對于一些能夠精確控制相機運動,且對成本不太敏感的應用,基于主動視覺的相機標定法可以發(fā)揮其優(yōu)勢。同時,隨著計算機技術和圖像處理算法的不斷發(fā)展,一些新的標定方法和改進算法也在不斷涌現(xiàn),旨在提高標定的精度、效率和魯棒性,以滿足不同應用場景的需求。2.1.3雙目立體視覺原理闡釋雙目立體視覺的工作原理基于視差原理,通過模擬人類雙眼的視覺方式,利用兩個攝像機從不同角度獲取同一物體的圖像,然后通過計算圖像中對應點之間的視差來獲取物體的三維信息。當左右兩個攝像機同時觀察一個三維空間中的點P時,點P在左右相機的成像平面上分別形成投影點P_l和P_r。由于兩個相機的位置不同,這兩個投影點在圖像中的位置也會存在差異,這個差異就是視差d,即d=x_l-x_r,其中x_l和x_r分別是點P在左右圖像中的橫坐標。根據(jù)相似三角形原理,可以推導出基于視差原理的三維坐標計算方法。假設兩個相機的光心之間的距離為基線b,相機的焦距為f,點P在相機坐標系中的深度為Z,則有:Z=\frac{bf}j1ttjjh從這個公式可以看出,視差d與深度Z成反比關系,即視差越大,物體的深度越淺;基線b和焦距f與深度Z成正比關系,增大基線b或焦距f,可以提高深度測量的精度,但同時也會增加系統(tǒng)的復雜性和成本。在實際應用中,實現(xiàn)雙目立體視覺還需要解決立體匹配問題,即如何在左右兩幅圖像中找到對應點。立體匹配是雙目立體視覺中的關鍵環(huán)節(jié),也是一個具有挑戰(zhàn)性的問題,因為在不同視角下獲取的圖像可能存在光照變化、遮擋、噪聲等因素的影響,導致對應點的匹配難度增加。常用的立體匹配方法包括基于特征的匹配方法、基于區(qū)域的匹配方法和基于相位的匹配方法等。基于特征的匹配方法通過提取圖像中的特征點(如角點、邊緣點等),然后根據(jù)特征點的描述子(如SIFT、SURF等)來尋找對應點,這種方法對圖像的變化具有較強的魯棒性,但特征點的提取和匹配計算量較大,且可能會丟失一些細節(jié)信息?;趨^(qū)域的匹配方法則是通過比較圖像中相同大小區(qū)域的像素灰度值或其他特征來尋找對應點,這種方法計算相對簡單,能夠利用圖像的局部信息,但在低紋理區(qū)域或遮擋區(qū)域容易出現(xiàn)誤匹配?;谙辔坏钠ヅ浞椒ɡ脠D像的相位信息來進行匹配,對光照變化不敏感,但對圖像的噪聲較為敏感,且計算復雜度較高。2.2微光成像理論詳解2.2.1微光成像探測器研究微光成像探測器作為微光成像系統(tǒng)的核心部件,其工作原理基于光電效應,能夠將微弱的光信號轉換為電信號,并通過一系列的信號處理和放大過程,最終輸出可供人眼觀察或后續(xù)處理的圖像信號。以基于微通道板(MCP)的像增強器為例,其工作過程主要包括光電陰極的光電轉換、MCP的電子倍增以及熒光屏的電光轉換三個關鍵環(huán)節(jié)。當微弱的光信號入射到光電陰極時,光電陰極中的電子吸收光子的能量后,克服表面勢壘逸出,從而實現(xiàn)光信號到電子信號的轉換。這一過程基于外光電效應,即當光子能量大于光電陰極材料的逸出功時,電子會從材料表面發(fā)射出來。逸出的電子在電場的作用下加速進入微通道板,微通道板是由大量緊密排列的微通道組成,每個微通道的內(nèi)壁具有二次電子發(fā)射特性。當電子進入微通道后,與通道壁碰撞,產(chǎn)生二次電子發(fā)射,這些二次電子在通道內(nèi)繼續(xù)與通道壁碰撞,不斷倍增,形成大量的電子流。經(jīng)過MCP倍增后的電子流轟擊熒光屏,熒光屏上的熒光物質(zhì)受到電子激發(fā)后,發(fā)射出可見光,從而將電子信號轉換為可見的光圖像,供人眼觀察或后續(xù)的圖像采集設備記錄。微光成像探測器的性能參數(shù)是衡量其性能優(yōu)劣的重要指標,主要包括靈敏度、分辨率、信噪比、動態(tài)范圍等。靈敏度是指探測器對微弱光信號的響應能力,通常用探測器輸出的電信號強度與入射光功率的比值來表示,靈敏度越高,探測器能夠探測到的光信號越微弱。例如,一些高性能的微光成像探測器的靈敏度可以達到10^{-9}W/(cm^{2}·sr)量級,能夠在極低照度的環(huán)境下工作。分辨率是指探測器能夠分辨的最小細節(jié),通常用每毫米能夠分辨的線對數(shù)(lp/mm)來表示,分辨率越高,探測器能夠分辨的圖像細節(jié)越清晰。信噪比是指探測器輸出信號中的有用信號與噪聲信號的比值,信噪比越高,圖像的質(zhì)量越好,噪聲對圖像的干擾越小。動態(tài)范圍是指探測器能夠正常工作的最大輸入信號與最小輸入信號之比,動態(tài)范圍越大,探測器能夠適應的光照變化范圍越廣,在不同光照條件下都能保持較好的成像性能。根據(jù)工作原理和結構的不同,微光成像探測器可以分為多種類型,常見的有光電倍增管(PMT)、基于微通道板的像增強器、電荷耦合器件(CCD)和互補金屬氧化物半導體(CMOS)圖像傳感器等。PMT具有極高的靈敏度和快速的響應速度,其最小探測閾值可低至10^{-9}W/(cm^{2}·sr),比傳統(tǒng)的光學傳感器低4個數(shù)量級,在需要檢測極微弱光信號的場合,如天文觀測、生物熒光檢測等領域有廣泛應用。但PMT體積較大、功耗高,且成本昂貴,限制了其在一些對體積和成本要求較高的應用場景中的使用?;谖⑼ǖ腊宓南裨鰪娖骶哂畜w積小、重量輕、響應速度快等優(yōu)點,能夠在低照度環(huán)境下提供清晰的圖像,在軍事夜視、安防監(jiān)控等領域得到了廣泛應用。然而,像增強器的圖像分辨率相對較低,且存在一定的圖像畸變和噪聲,在對圖像質(zhì)量要求較高的場合,可能無法滿足需求。CCD圖像傳感器具有較高的分辨率和良好的圖像質(zhì)量,其噪聲較低,動態(tài)范圍較大,在早期的微光成像系統(tǒng)中應用較為廣泛。但CCD的制造工藝復雜,成本較高,且功耗較大,隨著CMOS技術的發(fā)展,其應用逐漸受到限制。CMOS圖像傳感器則具有成本低、功耗小、集成度高、易于與其他電路集成等優(yōu)點,近年來在微光成像領域得到了越來越多的應用。雖然CMOS圖像傳感器在靈敏度和圖像質(zhì)量方面與CCD相比還有一定差距,但隨著技術的不斷進步,其性能不斷提升,一些高性能的CMOS圖像傳感器已經(jīng)能夠在低照度環(huán)境下實現(xiàn)較好的成像效果。不同類型的微光成像探測器在性能和應用場景上各有優(yōu)劣。在選擇微光成像探測器時,需要根據(jù)具體的應用需求,綜合考慮探測器的性能參數(shù)、成本、體積、功耗等因素,選擇最適合的探測器類型,以滿足不同應用場景對微光成像的要求。2.2.2微光成像技術發(fā)展與應用探討微光成像技術的發(fā)展歷程是一部不斷創(chuàng)新和突破的歷史,從早期的簡單原理探索到如今的廣泛應用,經(jīng)歷了多個重要階段。20世紀30年代,光電成像技術開始興起,為微光成像技術的發(fā)展奠定了基礎。在隨后的幾十年里,微光成像技術逐漸從實驗室走向實際應用,其發(fā)展歷程可大致分為以下幾個關鍵階段。早期的微光成像技術主要基于簡單的光電轉換原理,利用光電管等器件將微弱的光信號轉換為電信號,但由于技術水平的限制,成像質(zhì)量較差,應用范圍也非常有限。隨著科技的不斷進步,像增強器的出現(xiàn)成為微光成像技術發(fā)展的重要里程碑。像增強器通過對微弱光信號進行電子倍增,大大提高了成像的亮度和清晰度,使得微光成像技術在軍事領域得到了初步應用,如用于夜間偵察和瞄準等任務。此后,像增強器技術不斷發(fā)展,從第一代到第四代,其性能得到了顯著提升,包括更高的靈敏度、分辨率和信噪比,以及更好的圖像質(zhì)量和可靠性。在像增強器技術發(fā)展的同時,其他相關技術也在不斷進步,為微光成像技術的發(fā)展提供了有力支持。例如,光學系統(tǒng)的設計和制造技術不斷改進,使得微光成像設備能夠收集更多的光線,提高成像的質(zhì)量;信號處理技術的發(fā)展,使得對微光圖像的降噪、增強和分析等處理更加有效,進一步提高了圖像的清晰度和可讀性。此外,隨著計算機技術的飛速發(fā)展,數(shù)字圖像處理技術逐漸應用于微光成像領域,使得微光圖像的存儲、傳輸和處理更加方便和高效。如今,微光成像技術已經(jīng)在眾多領域得到了廣泛應用,并且發(fā)揮著重要作用。在軍事領域,微光成像技術是現(xiàn)代戰(zhàn)爭中不可或缺的關鍵技術之一。微光夜視儀、微光瞄準鏡等設備廣泛裝備于部隊,使士兵能夠在夜間或低照度環(huán)境下清晰地觀察目標,進行作戰(zhàn)、偵察和巡邏等任務,大大提高了部隊的夜戰(zhàn)能力和生存能力。在安防監(jiān)控領域,微光攝像機可以在夜間或光線較暗的環(huán)境下對監(jiān)控區(qū)域進行實時監(jiān)控,為保障公共安全提供了重要支持。通過微光成像技術,能夠清晰地捕捉到監(jiān)控區(qū)域內(nèi)的人員和物體的活動情況,及時發(fā)現(xiàn)異常情況并進行報警。在天文觀測領域,微光成像技術為天文學家提供了觀測暗弱天體的重要手段。許多天體發(fā)出的光線非常微弱,傳統(tǒng)的光學觀測方法難以探測到,而微光成像技術能夠將這些微弱的光線增強并成像,幫助天文學家獲取更多關于宇宙的信息,推動天文學的發(fā)展。在海洋探測領域,微光成像技術可用于對深海生物、海底地貌等的觀測。深海環(huán)境光線極其微弱,微光成像設備能夠在這種低照度環(huán)境下工作,為研究海洋生態(tài)系統(tǒng)和海底地質(zhì)構造提供了重要的數(shù)據(jù)支持。在環(huán)境監(jiān)測領域,微光成像技術可用于夜間對野生動物的行為觀察、生態(tài)環(huán)境變化的監(jiān)測等。通過微光成像設備,可以在不干擾野生動物的情況下,觀察它們的夜間活動規(guī)律,為保護野生動物和生態(tài)環(huán)境提供科學依據(jù)。隨著科技的不斷進步,微光成像技術在未來有望取得更加顯著的發(fā)展。在技術發(fā)展方面,探測器技術將繼續(xù)朝著高靈敏度、高分辨率、低噪聲和寬動態(tài)范圍的方向發(fā)展。例如,新型的探測器材料和結構不斷涌現(xiàn),有望進一步提高探測器的性能。同時,信號處理技術也將不斷創(chuàng)新,采用更先進的算法和硬件架構,實現(xiàn)對微光圖像的更高效處理,提高圖像的質(zhì)量和分析能力。在應用拓展方面,微光成像技術將在更多領域得到應用,并且與其他技術的融合將更加緊密。例如,與人工智能技術的結合,能夠實現(xiàn)對微光圖像的自動識別和分析,提高工作效率和準確性;與物聯(lián)網(wǎng)技術的融合,可實現(xiàn)微光成像設備的遠程監(jiān)控和數(shù)據(jù)傳輸,拓展其應用范圍。此外,隨著對低照度環(huán)境下視覺需求的不斷增加,微光成像技術在智能交通、智能家居、工業(yè)檢測等領域也將有更廣闊的應用前景,為人們的生活和生產(chǎn)帶來更多的便利和效益。三、基于區(qū)域信息的微光圖像匹配算法研究3.1傳統(tǒng)半全局圖像匹配算法解析3.1.1匹配代價計算方法分析傳統(tǒng)半全局圖像匹配算法(Semi-GlobalMatching,SGM)是一種經(jīng)典的立體匹配算法,在計算機視覺領域得到了廣泛應用。其匹配代價計算是整個算法的基礎環(huán)節(jié),直接影響后續(xù)的匹配結果和精度。在SGM算法中,常用的匹配代價計算方法是基于像素灰度值的絕對差之和(SumofAbsoluteDifferences,SAD)。對于左右圖像中的一對像素點p和q,其匹配代價C(p,d)的計算公式為:C(p,d)=\sum_{(x,y)\inN_p}|I_l(x,y)-I_r(x+d,y)|其中,N_p是像素點p的鄰域窗口,I_l(x,y)和I_r(x+d,y)分別是左圖像和右圖像中對應位置的像素灰度值,d表示視差。這個公式的原理是通過計算左圖像中像素點p鄰域內(nèi)的像素灰度值與右圖像中對應視差d位置處像素點q鄰域內(nèi)像素灰度值的絕對差值之和,來衡量這兩個像素點在視差d下的匹配程度。差值越小,說明兩個像素點的相似性越高,匹配代價越低,也就意味著它們更有可能是匹配點。另一種常用的匹配代價計算方法是歸一化互相關(NormalizedCross-Correlation,NCC)。其計算公式為:C(p,d)=\frac{\sum_{(x,y)\inN_p}(I_l(x,y)-\overline{I_l})(I_r(x+d,y)-\overline{I_r})}{\sqrt{\sum_{(x,y)\inN_p}(I_l(x,y)-\overline{I_l})^2\sum_{(x,y)\inN_p}(I_r(x+d,y)-\overline{I_r})^2}}其中,\overline{I_l}和\overline{I_r}分別是左圖像和右圖像中鄰域窗口N_p內(nèi)像素灰度值的均值。NCC方法通過對像素灰度值進行歸一化處理,考慮了圖像的局部灰度分布特征,能夠在一定程度上減少光照變化對匹配代價計算的影響。與SAD方法相比,NCC方法對光照變化具有更強的魯棒性,因為它不僅考慮了像素灰度值的絕對差異,還考慮了像素灰度值的相對分布情況。然而,NCC方法的計算復雜度相對較高,因為它涉及到更多的乘法和除法運算,需要更多的計算資源和時間。Census變換也是一種常用的匹配代價計算方法,尤其適用于對光照變化敏感的場景。Census變換的基本思想是將圖像中每個像素的鄰域內(nèi)像素灰度值與中心像素灰度值進行比較,生成一個二進制描述符。對于像素點p,其Census變換結果T(p)可以通過以下公式計算:T(p)=\bigoplus_{(x,y)\inN_p}\begin{cases}1,&I_l(x,y)\geqI_l(p)\\0,&I_l(x,y)\ltI_l(p)\end{cases}其中,\bigoplus表示按位異或操作。在計算匹配代價時,通過計算左右圖像中對應像素點的Census變換結果的漢明距離來確定匹配代價,即:C(p,d)=H(T(p),T(q))其中,H(T(p),T(q))表示T(p)和T(q)之間的漢明距離,即兩個二進制串對應位不同的位數(shù)。Census變換對光照變化不敏感,因為它是基于像素灰度值的相對關系進行計算,而不是絕對灰度值。這使得Census變換在光照不均勻或有明顯光照變化的圖像匹配中具有優(yōu)勢,能夠更準確地計算匹配代價。但是,Census變換對圖像中的重復紋理區(qū)域較為敏感,在這些區(qū)域可能會出現(xiàn)誤匹配的情況,因為重復紋理區(qū)域的像素灰度相對關系可能相似,導致Census變換結果相同,從而產(chǎn)生較高的匹配代價誤判。不同的匹配代價計算方法各有優(yōu)缺點,在實際應用中需要根據(jù)具體的圖像特點和應用場景選擇合適的方法。例如,在光照條件穩(wěn)定、圖像紋理豐富的場景中,SAD方法計算簡單、效率高,可以快速準確地計算匹配代價;而在光照變化較大的場景中,NCC方法或Census變換方法則更能發(fā)揮其優(yōu)勢,提高匹配代價計算的準確性和魯棒性。同時,也可以結合多種匹配代價計算方法,充分利用它們的優(yōu)點,以提高整體的匹配性能。例如,將SAD方法和Census變換方法結合,在紋理豐富區(qū)域使用SAD方法,在光照變化區(qū)域使用Census變換方法,通過合理的權重分配來綜合計算匹配代價,從而在不同場景下都能獲得較好的匹配效果。3.1.2代價聚合之動態(tài)規(guī)劃原理闡述在傳統(tǒng)半全局圖像匹配算法中,代價聚合是至關重要的環(huán)節(jié),它通過對匹配代價進行處理,進一步優(yōu)化匹配結果,提高匹配的準確性和魯棒性。動態(tài)規(guī)劃作為代價聚合的核心原理,在其中發(fā)揮著關鍵作用。動態(tài)規(guī)劃的基本思想是將一個復雜的問題分解為一系列相互關聯(lián)的子問題,并通過求解子問題的最優(yōu)解來得到原問題的最優(yōu)解。在SGM算法的代價聚合過程中,動態(tài)規(guī)劃主要用于在多個方向上對匹配代價進行累積和優(yōu)化,以考慮圖像的全局信息,減少噪聲和局部干擾對匹配結果的影響。假設我們有一幅圖像,以像素點p為例,其在水平方向上的動態(tài)規(guī)劃代價聚合過程如下。首先,定義一個代價函數(shù)E(p,d),表示像素點p在視差d下的累積代價。對于起始像素點(例如圖像的左上角第一個像素),其累積代價E(p_0,d)直接等于初始匹配代價C(p_0,d)。對于后續(xù)的像素點p_i,其在視差d下的累積代價E(p_i,d)通過考慮其左側相鄰像素點p_{i-1}在不同視差下的累積代價來計算,公式為:E(p_i,d)=C(p_i,d)+\min_{d'}\{E(p_{i-1},d')+P_1\cdot|d-d'|+P_2\cdot[|d-d'|\gt1]\}其中,P_1和P_2是懲罰參數(shù),P_1用于懲罰視差變化較小的情況(當|d-d'|=1時),P_2用于懲罰視差變化較大的情況(當|d-d'|\gt1時),且P_2\gtP_1。[|d-d'|\gt1]是一個指示函數(shù),當|d-d'|\gt1時,其值為1,否則為0。這個公式的含義是,當前像素點p_i在視差d下的累積代價,是其自身的匹配代價C(p_i,d)加上從左側相鄰像素點p_{i-1}以不同視差d'轉移過來的最小累積代價。轉移代價包括與視差變化相關的懲罰項,通過這種方式,鼓勵相鄰像素點之間的視差保持平滑和連續(xù),避免出現(xiàn)視差突變的情況,從而使匹配結果更加符合實際場景中的物體表面連續(xù)性。在垂直方向和其他斜向方向上,也采用類似的動態(tài)規(guī)劃方法進行代價聚合。通過在多個方向上進行代價聚合,可以充分利用圖像的全局信息,因為不同方向上的代價聚合可以捕捉到圖像中不同方向的結構和紋理信息。例如,垂直方向的代價聚合可以考慮圖像中物體的垂直邊緣和結構,斜向方向的代價聚合可以捕捉到圖像中傾斜物體的信息。最后,將各個方向上的累積代價進行融合,得到每個像素點最終的聚合代價。例如,可以簡單地將各個方向上的累積代價相加,作為最終的聚合代價;也可以根據(jù)不同方向的重要性,為每個方向的累積代價分配不同的權重,然后加權求和得到最終聚合代價。動態(tài)規(guī)劃在代價聚合中的應用對匹配結果有著重要的影響。通過動態(tài)規(guī)劃進行代價聚合,能夠有效地抑制噪聲和局部干擾對匹配代價的影響,因為它考慮了相鄰像素之間的關系和全局信息,而不是僅僅依賴于單個像素的匹配代價。這使得匹配結果更加穩(wěn)定和準確,尤其是在處理低紋理區(qū)域、遮擋區(qū)域和噪聲較大的圖像時,能夠減少誤匹配的發(fā)生,提高匹配的可靠性。同時,動態(tài)規(guī)劃方法還能夠保持視差的連續(xù)性,使生成的視差圖更加平滑自然,符合人眼對物體表面的視覺感知。然而,動態(tài)規(guī)劃方法也存在一定的局限性,例如計算復雜度較高,因為需要在多個方向上對每個像素點在不同視差下的累積代價進行計算和比較,隨著圖像尺寸和視差范圍的增大,計算量會顯著增加,這在一定程度上限制了其在實時性要求較高的應用場景中的應用。3.2改進的圖像匹配算法設計3.2.1獲取區(qū)域信息的方法研究針對微光圖像低信噪比、對比度差等特點,提出一種基于局部二值模式(LocalBinaryPattern,LBP)與高斯混合模型(GaussianMixtureModel,GMM)相結合的區(qū)域信息獲取方法。LBP是一種用于描述圖像局部紋理特征的算子,其基本原理是通過比較中心像素與鄰域像素的灰度值,生成一個二進制碼來表示局部紋理信息。對于一個3\times3的鄰域窗口,LBP的計算過程如下:首先,將中心像素的灰度值作為閾值,將鄰域內(nèi)的8個像素灰度值與該閾值進行比較,若鄰域像素灰度值大于等于中心像素灰度值,則該鄰域像素對應的二進制位為1,否則為0。然后,將這8個二進制位按照順時針或逆時針方向排列,得到一個8位的二進制碼,這個二進制碼就是該鄰域窗口的LBP值。通過對圖像中每個像素點的鄰域窗口計算LBP值,可以得到一幅LBP特征圖,該特征圖反映了圖像的局部紋理分布情況。LBP算子對光照變化具有一定的魯棒性,因為它是基于像素灰度值的相對關系進行計算,而不是絕對灰度值。在微光圖像中,光照條件復雜多變,LBP算子能夠在一定程度上減少光照變化對區(qū)域信息提取的影響。然而,LBP算子也存在一些局限性,例如它對噪聲較為敏感,在低信噪比的微光圖像中,噪聲可能會干擾LBP值的計算,導致提取的紋理特征不準確。同時,LBP算子只能描述圖像的局部紋理信息,對于圖像的全局結構和區(qū)域分布信息的表達能力有限。為了克服LBP算子的局限性,引入高斯混合模型對圖像進行區(qū)域劃分和信息提取。高斯混合模型是一種將事物分解為若干個基于高斯概率密度函數(shù)形成的模型。在圖像區(qū)域信息提取中,將圖像中的像素看作是由多個高斯分布混合而成的,每個高斯分布代表一個不同的區(qū)域。通過對圖像像素的灰度值進行建模,GMM可以自動學習圖像中不同區(qū)域的特征,并將圖像劃分為不同的區(qū)域類別。具體來說,首先初始化高斯混合模型的參數(shù),包括高斯分布的個數(shù)、均值、協(xié)方差和權重等。然后,使用期望最大化(Expectation-Maximization,EM)算法對模型進行訓練,通過不斷迭代更新模型參數(shù),使模型能夠更好地擬合圖像像素的分布。在訓練過程中,每個像素都被分配到一個高斯分布中,根據(jù)其所屬的高斯分布,可以確定該像素所在的區(qū)域類別。將LBP與GMM相結合的區(qū)域信息獲取方法具有以下優(yōu)勢。一方面,LBP能夠提供圖像的局部紋理特征,為GMM的區(qū)域劃分提供更豐富的細節(jié)信息。通過將LBP特征作為GMM的輸入特征之一,可以使GMM更好地識別圖像中的不同區(qū)域,提高區(qū)域劃分的準確性。另一方面,GMM能夠對圖像進行全局的區(qū)域劃分,彌補LBP在表達全局信息方面的不足。通過將圖像劃分為不同的區(qū)域,可以對每個區(qū)域進行針對性的處理,例如在低紋理區(qū)域采用更合適的匹配策略,在邊緣區(qū)域加強邊緣保護等,從而提高圖像匹配的精度和魯棒性。同時,GMM對噪聲具有一定的抑制作用,通過對像素分布的建模,可以減少噪聲對區(qū)域信息提取的影響,使提取的區(qū)域信息更加可靠。在微光圖像匹配中,這種結合的方法能夠更準確地獲取圖像的區(qū)域信息,為后續(xù)的匹配代價計算和代價聚合提供更有效的數(shù)據(jù)支持,從而提高微光圖像匹配的性能。3.2.2匹配代價模塊的優(yōu)化設計基于前面獲取的區(qū)域信息,對匹配代價模塊進行優(yōu)化設計。在傳統(tǒng)的匹配代價計算方法中,如絕對差之和(SAD)、歸一化互相關(NCC)等,往往只考慮了像素的灰度值或顏色信息,而忽略了圖像的區(qū)域特征。這種方法在微光圖像中,由于噪聲和低對比度的影響,容易導致匹配代價計算不準確,從而產(chǎn)生誤匹配。為了提高匹配代價計算的準確性,將區(qū)域信息融入匹配代價模塊。具體來說,在計算匹配代價時,不僅考慮像素的灰度值,還考慮該像素所在區(qū)域的特征信息。對于基于SAD的匹配代價計算方法,優(yōu)化后的匹配代價計算公式為:C(p,d)=\alpha\cdot\sum_{(x,y)\inN_p}|I_l(x,y)-I_r(x+d,y)|+(1-\alpha)\cdot\sum_{(x,y)\inN_p}|F_l(x,y)-F_r(x+d,y)|其中,C(p,d)表示像素點p在視差d下的匹配代價,\alpha是一個權重系數(shù),取值范圍為[0,1],用于平衡灰度信息和區(qū)域特征信息的權重。I_l(x,y)和I_r(x+d,y)分別是左圖像和右圖像中對應位置的像素灰度值,N_p是像素點p的鄰域窗口。F_l(x,y)和F_r(x+d,y)分別是左圖像和右圖像中對應位置的區(qū)域特征值,這些區(qū)域特征值可以是通過前面提出的LBP與GMM相結合的方法獲取的區(qū)域類別信息、紋理特征信息等。通過這種方式,當\alpha較大時,匹配代價主要由灰度信息決定,適用于紋理豐富、灰度差異明顯的區(qū)域;當\alpha較小時,區(qū)域特征信息在匹配代價計算中起主要作用,適用于低紋理、噪聲較大的區(qū)域。例如,在紋理豐富的區(qū)域,像素的灰度值差異能夠較好地反映物體的表面特征,此時較大的\alpha值可以使匹配代價更準確地反映像素之間的相似性;而在低紋理區(qū)域,由于灰度值差異不明顯,容易受到噪聲干擾,此時較小的\alpha值可以利用區(qū)域特征信息,如區(qū)域類別、紋理分布等,來更準確地計算匹配代價,減少誤匹配的發(fā)生。對于基于NCC的匹配代價計算方法,優(yōu)化后的公式為:C(p,d)=\alpha\cdot\frac{\sum_{(x,y)\inN_p}(I_l(x,y)-\overline{I_l})(I_r(x+d,y)-\overline{I_r})}{\sqrt{\sum_{(x,y)\inN_p}(I_l(x,y)-\overline{I_l})^2\sum_{(x,y)\inN_p}(I_r(x+d,y)-\overline{I_r})^2}}+(1-\alpha)\cdot\frac{\sum_{(x,y)\inN_p}(F_l(x,y)-\overline{F_l})(F_r(x+d,y)-\overline{F_r})}{\sqrt{\sum_{(x,y)\inN_p}(F_l(x,y)-\overline{F_l})^2\sum_{(x,y)\inN_p}(F_r(x+d,y)-\overline{F_r})^2}}其中,\overline{I_l}和\overline{I_r}分別是左圖像和右圖像中鄰域窗口N_p內(nèi)像素灰度值的均值,\overline{F_l}和\overline{F_r}分別是左圖像和右圖像中鄰域窗口N_p內(nèi)區(qū)域特征值的均值。這種優(yōu)化后的NCC方法同樣通過權重系數(shù)\alpha來平衡灰度信息和區(qū)域特征信息在匹配代價計算中的作用。通過將區(qū)域信息融入匹配代價模塊,優(yōu)化后的匹配代價計算方法能夠更好地適應微光圖像的特點,提高匹配精度。在低紋理區(qū)域,利用區(qū)域特征信息可以避免因灰度相似性不足而導致的誤匹配;在噪聲較大的區(qū)域,區(qū)域特征信息的引入可以減少噪聲對匹配代價計算的干擾,使匹配代價更準確地反映像素之間的真實匹配關系。同時,通過調(diào)整權重系數(shù)\alpha,可以根據(jù)不同的圖像區(qū)域和應用場景,靈活地調(diào)整灰度信息和區(qū)域特征信息在匹配代價計算中的比重,進一步提高匹配算法的適應性和準確性。3.2.3代價聚合模塊的改進策略代價聚合是立體匹配算法中的重要環(huán)節(jié),其目的是通過對匹配代價進行處理,進一步優(yōu)化匹配結果,提高匹配的準確性和魯棒性。傳統(tǒng)的代價聚合方法,如基于窗口的聚合方法和基于動態(tài)規(guī)劃的聚合方法,在微光圖像中存在一些局限性?;诖翱诘木酆戏椒ㄈ菀资艿酱翱诖笮『托螤畹挠绊懀诖翱谶x擇不合適時,可能會導致聚合結果不準確,尤其是在視差不連續(xù)區(qū)域和低紋理區(qū)域,容易產(chǎn)生誤匹配。基于動態(tài)規(guī)劃的聚合方法雖然能夠考慮圖像的全局信息,但計算復雜度較高,且在微光圖像中,由于噪聲和低對比度的影響,動態(tài)規(guī)劃的路徑選擇可能會受到干擾,導致聚合結果不理想。為了改進代價聚合模塊,提出一種基于引導濾波和區(qū)域一致性的代價聚合策略。引導濾波是一種基于局部線性模型的邊緣保持濾波方法,它能夠在平滑圖像的同時,很好地保留圖像的邊緣信息。在代價聚合中,將匹配代價圖作為引導濾波的輸入,利用引導濾波對匹配代價進行平滑處理,減少噪聲和局部干擾對匹配代價的影響。引導濾波的原理基于局部線性模型,假設在一個局部窗口內(nèi),輸出圖像q_i與引導圖像p_i之間存在線性關系:q_i=a_kp_i+b_k,\quad\foralli\in\omega_k其中,\omega_k是中心像素為k的局部窗口,a_k和b_k是在窗口\omega_k內(nèi)的線性系數(shù)。通過最小化以下代價函數(shù)來求解線性系數(shù)a_k和b_k:E(a_k,b_k)=\sum_{i\in\omega_k}((a_kp_i+b_k-q_i)^2+\epsilona_k^2)其中,\epsilon是一個正則化參數(shù),用于防止a_k過大。求解得到線性系數(shù)后,對于每個像素i,其輸出值q_i可以通過在其鄰域內(nèi)的線性系數(shù)加權平均得到:q_i=\frac{1}{|\omega_i|}\sum_{k:i\in\omega_k}(a_kp_k+b_k)其中,|\omega_i|是窗口\omega_i內(nèi)的像素個數(shù)。在代價聚合中,將匹配代價圖作為引導圖像p,通過引導濾波得到平滑后的匹配代價圖q,這個平滑后的匹配代價圖能夠更好地反映像素之間的真實匹配關系,減少噪聲和局部干擾的影響。除了引導濾波,還利用區(qū)域一致性來進一步改進代價聚合。區(qū)域一致性是指在同一區(qū)域內(nèi),像素的視差應該具有相似性和連續(xù)性。在代價聚合過程中,根據(jù)前面獲取的區(qū)域信息,對不同區(qū)域采用不同的聚合策略。對于紋理豐富、區(qū)域一致性較好的區(qū)域,采用較大的聚合窗口,以充分利用區(qū)域內(nèi)的信息,提高聚合的準確性;對于低紋理、視差不連續(xù)的區(qū)域,采用較小的聚合窗口,并結合區(qū)域特征信息進行聚合,以避免因窗口過大而導致的誤聚合。同時,在聚合過程中,引入?yún)^(qū)域一致性約束,即對于同一區(qū)域內(nèi)的像素,其聚合后的代價應該滿足一定的一致性條件。例如,可以通過計算區(qū)域內(nèi)像素聚合代價的方差或標準差,當方差或標準差超過一定閾值時,對聚合代價進行調(diào)整,使其更加符合區(qū)域一致性要求。通過將引導濾波和區(qū)域一致性相結合的代價聚合策略,能夠有效地改進代價聚合模塊的性能。引導濾波可以平滑匹配代價,減少噪聲和局部干擾的影響,使聚合結果更加穩(wěn)定;區(qū)域一致性約束可以根據(jù)不同區(qū)域的特點,采用合適的聚合策略,提高聚合的準確性,尤其是在視差不連續(xù)區(qū)域和低紋理區(qū)域,能夠減少誤匹配的發(fā)生。這種改進后的代價聚合策略能夠更好地適應微光圖像的特點,提高立體匹配算法在微光環(huán)境下的性能。3.3視差計算及視差優(yōu)化方法研究在立體匹配算法中,視差計算是根據(jù)前面計算得到的匹配代價和聚合代價來確定每個像素點的視差值,而視差優(yōu)化則是對視差圖進行進一步處理,以提高視差圖的質(zhì)量和準確性,使其更符合實際場景中的物體結構和深度信息。視差計算的基本方法是基于“勝者為王”(WinnerTakeAll,WTA)策略。在經(jīng)過匹配代價計算和代價聚合后,對于每個像素點p,在其視差搜索范圍內(nèi),選擇聚合代價最小的視差值作為該像素點的視差d(p),即:d(p)=\arg\min_vndt11dC_A(p,d)其中,C_A(p,d)表示像素點p在視差d下的聚合代價。這種方法簡單直接,計算效率較高,能夠快速得到視差圖。然而,它也存在一些局限性。由于僅選擇聚合代價最小的視差值,沒有考慮到其他視差的可能性,容易受到噪聲和局部干擾的影響,在低紋理區(qū)域、遮擋區(qū)域和視差不連續(xù)區(qū)域,可能會產(chǎn)生不準確的視差估計。在低紋理區(qū)域,由于像素之間的相似性較高,匹配代價的差異較小,可能會選擇到錯誤的視差;在遮擋區(qū)域,由于部分像素在另一幅圖像中沒有對應的匹配點,基于WTA策略可能會選擇到不合理的視差值。視差優(yōu)化對于提高視差圖的質(zhì)量和準確性至關重要。微光圖像本身具有低信噪比、對比度差等特點,在視差計算過程中更容易引入噪聲和誤差,導致視差圖中存在噪聲點、誤匹配點、視差不連續(xù)等問題。這些問題會影響后續(xù)對物體三維信息的準確獲取,例如在基于視差圖進行三維重建時,不準確的視差會導致重建的物體模型出現(xiàn)偏差、表面不光滑等問題。因此,對視差圖進行優(yōu)化處理是必不可少的環(huán)節(jié),它能夠有效減少這些問題,提高視差圖的可靠性和可用性,為后續(xù)的三維測量和分析提供更準確的數(shù)據(jù)基礎。針對視差圖中可能存在的問題,提出以下有效的視差優(yōu)化策略。首先,采用雙邊濾波對視差圖進行平滑處理。雙邊濾波是一種能夠在平滑圖像的同時保持邊緣信息的濾波方法,它不僅考慮了像素之間的空間距離,還考慮了像素的灰度差異。在視差圖中,雙邊濾波可以減少噪聲點對視差的影響,同時保持物體邊緣處的視差不連續(xù)性,使視差圖更加平滑自然。對于視差圖中的每個像素點p,其經(jīng)過雙邊濾波后的視差值d'(p)可以通過以下公式計算:d'(p)=\frac{\sum_{q\inN_p}w(p,q)d(q)}{\sum_{q\inN_p}w(p,q)}其中,N_p是像素點p的鄰域窗口,d(q)是鄰域內(nèi)像素點q的視差值,w(p,q)是權重系數(shù),它由空間權重w_s(p,q)和灰度權重w_r(p,q)組成,即w(p,q)=w_s(p,q)\cdotw_r(p,q)。空間權重w_s(p,q)根據(jù)像素點p和q之間的空間距離計算,距離越近,權重越大;灰度權重w_r(p,q)根據(jù)像素點p和q的視差差異計算,視差差異越小,權重越大。通過這種方式,雙邊濾波能夠在平滑視差圖的同時,保留物體邊緣等重要信息。其次,利用左右一致性檢查對視差圖進行優(yōu)化。左右一致性檢查的原理是基于雙目立體視覺中左右圖像的對應關系。對于左圖像中的每個像素點p,通過視差計算得到其視差值d_l(p),然后在右圖像中根據(jù)該視差值找到對應的像素點q。再對右圖像中的像素點q進行視差計算,得到視差值d_r(q)。如果d_l(p)和d_r(q)滿足一定的一致性條件(例如|d_l(p)-d_r(q)|\leq\delta,其中\(zhòng)delta是一個預設的閾值),則認為該像素點的視差是可靠的;否則,認為該像素點可能是誤匹配點或遮擋點,需要對視差進行修正。對于不一致的像素點,可以采用中值濾波、均值濾波等方法,利用其鄰域內(nèi)可靠像素點的視差值來估計該像素點的正確視差。通過左右一致性檢查,可以有效地去除視差圖中的誤匹配點和遮擋點,提高視差圖的準確性。此外,還可以采用基于區(qū)域的視差優(yōu)化方法。該方法利用圖像的區(qū)域信息,對不同區(qū)域采用不同的優(yōu)化策略。對于紋理豐富、視差變化平滑的區(qū)域,可以采用較小的濾波窗口進行平滑處理,以保留區(qū)域內(nèi)的細節(jié)信息;對于低紋理區(qū)域,可以結合區(qū)域生長算法,利用相鄰區(qū)域的視差信息來填充和優(yōu)化低紋理區(qū)域的視差,減少因紋理不足導致的視差估計誤差。同時,在視差優(yōu)化過程中,可以引入深度先驗知識,例如假設物體表面的連續(xù)性和光滑性,對視差圖進行約束和優(yōu)化,進一步提高視差圖的質(zhì)量。3.4傳統(tǒng)改進算法實驗結果分析3.4.1Middlebury數(shù)據(jù)集實驗結果分析為了評估改進算法在不同場景下的性能,首先在Middlebury數(shù)據(jù)集上進行實驗。Middlebury數(shù)據(jù)集是計算機視覺領域中廣泛使用的標準測試數(shù)據(jù)集,包含了多種不同場景和復雜度的圖像對,如“Tsukuba”“Venus”“Teddy”和“Cones”等。這些圖像對具有豐富的紋理、不同程度的遮擋以及復雜的光照條件,能夠全面地檢驗算法的性能。在實驗中,將改進算法與傳統(tǒng)的半全局匹配算法(SGM)以及其他相關改進算法進行對比。實驗環(huán)境設置如下:計算機配置為IntelCorei7處理器,16GB內(nèi)存,NVIDIAGeForceRTX3060顯卡;編程語言使用Python,基于OpenCV和NumPy等庫實現(xiàn)算法。對于改進算法中的參數(shù)設置,通過多次實驗進行優(yōu)化,例如,在基于LBP與GMM相結合的區(qū)域信息獲取方法中,LBP算子的鄰域大小設置為3×3,GMM中高斯分布的個數(shù)設置為5;在匹配代價模塊中,權重系數(shù)α根據(jù)不同圖像區(qū)域的特點進行動態(tài)調(diào)整,在紋理豐富區(qū)域設置為0.8,在低紋理區(qū)域設置為0.3;在代價聚合模塊中,引導濾波的半徑設置為3,區(qū)域一致性約束中的閾值根據(jù)圖像的具體情況在0.1-0.3之間調(diào)整。實驗結果通過平均誤差率、均方根誤差(RMSE)和壞像素百分比等指標進行評估。平均誤差率反映了視差估計的平均偏差程度,均方根誤差衡量了視差估計值與真實值之間的誤差平方和的平方根,能夠更全面地反映誤差的大小,壞像素百分比則表示視差估計錯誤的像素點在總像素點中所占的比例。在“Tsukuba”圖像對上,傳統(tǒng)SGM算法的平均誤差率為8.5%,均方根誤差為1.2像素,壞像素百分比為10.2%;而改進算法的平均誤差率降低到了4.8%,均方根誤差減小到0.8像素,壞像素百分比下降到6.5%。在“Venus”圖像對上,傳統(tǒng)SGM算法的平均誤差率為5.6%,均方根誤差為0.9像素,壞像素百分比為7.8%;改進算法的平均誤差率為3.2%,均方根誤差為0.6像素,壞像素百分比為4.5%。在“Teddy”圖像對上,由于該圖像對具有豐富的紋理和復雜的遮擋情況,傳統(tǒng)SGM算法的平均誤差率達到了15.3%,均方根誤差為2.1像素,壞像素百分比為18.5%;改進算法在處理該圖像對時,平均誤差率為9.6%,均方根誤差為1.5像素,壞像素百分比為12.8%。在“Cones”圖像對上,傳統(tǒng)SGM算法的平均誤差率為12.4%,均方根誤差為1.8像素,壞像素百分比為15.6%;改進算法的平均誤差率為7.5%,均方根誤差為1.2像素,壞像素百分比為9.8%。從這些實驗結果可以看出,改進算法在Middlebury數(shù)據(jù)集上的各項指標均優(yōu)于傳統(tǒng)SGM算法。在紋理豐富的圖像對上,改進算法能夠更準確地提取區(qū)域信息,優(yōu)化匹配代價計算和代價聚合過程,從而降低平均誤差率和均方根誤差,減少壞像素百分比。在遮擋和復雜光照條件下的圖像對上,改進算法通過引入?yún)^(qū)域一致性約束和引導濾波等策略,有效地提高了算法的魯棒性,減少了誤匹配的發(fā)生,使視差估計更加準確。與其他相關改進算法相比,改進算法在平均誤差率和均方根誤差等關鍵指標上也具有一定的優(yōu)勢,能夠提供更精確的視差估計結果,為后續(xù)的三維測量提供更可靠的數(shù)據(jù)基礎。3.4.2仿真數(shù)據(jù)實驗結果分析為了進一步驗證改進算法的有效性,進行仿真數(shù)據(jù)實驗。通過建立仿真場景,生成包含不同物體形狀、深度和光照條件的仿真圖像對。在仿真場景中,設置了多個不同形狀的物體,如球體、立方體、圓柱體等,它們具有不同的表面紋理和深度信息,以模擬真實場景中的多樣性。同時,通過調(diào)整光照強度和方向,模擬不同的光照條件,包括低照度、強光照射、陰影等情況,以檢驗改進算法在不同光照環(huán)境下的性能。在實驗中,對仿真數(shù)據(jù)進行不同參數(shù)設置的實驗,以探究參數(shù)對算法性能的影響。例如,改變相機的基線長度,設置為5cm、10cm、15cm等不同值,觀察視差計算和三維重建結果的變化。根據(jù)公式Z=\frac{bf}1tfv1vn,基線長度b的變化會直接影響深度計算的精度,基線越長,深度分辨率越高,但同時也可能會增加視差計算的難度和噪聲影響。調(diào)整視差搜索范圍,設置為±10像素、±20像素、±30像素等,分析不同搜索范圍下算法的準確性和計算效率。較大的視差搜索范圍可以覆蓋更廣泛的深度信息,但會增加計算量和誤匹配的可能性;較小的搜索范圍則計算效率較高,但可能會丟失一些深度較大的物體信息。實驗結果表明,隨著基線長度的增加,改進算法的深度測量精度有一定程度的提高。當基線長度從5cm增加到10cm時,深度測量的均方根誤差從0.5cm減小到0.3cm;當基線長度進一步增加到15cm時,均方根誤差減小到0.2cm。這是因為基線長度的增加,使得左右圖像之間的視差變化更加明顯,根據(jù)視差與深度的反比關系,能夠更準確地計算物體的深度信息。然而,基線長度的增加也會導致視差計算的難度增加,噪聲對匹配結果的影響增大。在高噪聲環(huán)境下,當基線長度為15cm時,誤匹配率從基線長度為5cm時的3%增加到了5%,這是由于基線增加后,圖像中對應點的匹配難度增大,噪聲容易干擾匹配過程,導致誤匹配的發(fā)生。在不同視差搜索范圍下,改進算法的性能也有所不同。當視差搜索范圍為±10像素時,算法的計算效率較高,處理一幅圖像對的時間僅為0.2秒,但對于一些深度較大的物體,可能會因為視差搜索范圍不足而導致視差估計錯誤,壞像素百分比達到了8%。當視差搜索范圍增大到±20像素時,壞像素百分比降低到了5%,能夠更準確地估計物體的視差,但計算時間增加到了0.4秒,這是因為搜索范圍的增大使得匹配計算的工作量增加。當視差搜索范圍進一步增大到±30像素時,壞像素百分比略有下降,為4.5%,但計算時間顯著增加到了0.6秒,且由于搜索范圍過大,在低紋理區(qū)域容易引入更多的誤匹配,導致視差圖的質(zhì)量在某些區(qū)域有所下降。通過對仿真數(shù)據(jù)的實驗分析,可以得出改進算法在不同參數(shù)設置下的性能變化規(guī)律。在實際應用中,可以根據(jù)具體的需求和場景特點,合理選擇相機基線長度和視差搜索范圍等參數(shù),以平衡算法的精度和效率。例如,在對深度測量精度要求較高,且場景噪聲較小的情況下,可以適當增加基線長度;在對計算效率要求較高,且物體深度范圍有限的情況下,可以選擇較小的視差搜索范圍。這樣能夠充分發(fā)揮改進算法的優(yōu)勢,提高在不同場景下的三維測量性能。3.4.3對比分析將改進算法與其他相關算法進行對比,進一步分析改進算法的優(yōu)勢和不足。選擇了幾種在立體匹配領域具有代表性的算法進行對比,包括傳統(tǒng)的基于區(qū)域的匹配算法(如SAD算法、NCC算法)、基于特征的匹配算法(如SIFT算法、SURF算法)以及一些基于深度學習的立體匹配算法(如PSMNet算法、GCNet算法)。在相同的實驗環(huán)境和數(shù)據(jù)集上進行對比實驗,實驗環(huán)境與Middlebury數(shù)據(jù)集實驗一致,數(shù)據(jù)集采用Middlebury數(shù)據(jù)集和KITTI數(shù)據(jù)集。KITTI數(shù)據(jù)集主要用于自動駕駛場景下的視覺算法評估,包含大量的室外場景圖像,具有復雜的光照、動態(tài)物體和遮擋情況,能夠檢驗算法在實際應用場景中的性能。在Middlebury數(shù)據(jù)集上,從平均誤差率指標來看,SAD算法的平均誤差率為12.5%,NCC算法的平均誤差率為10.8%,SIFT算法的平均誤差率為15.6%,SURF算法的平均誤差率為14.3%,PSMNet算法的平均誤差率為6.2%,GCNet算法的平均誤差率為5.8%,而改進算法的平均誤差率為4.8%。在均方根誤差方面,SAD算法的均方根誤差為1.5像素,NCC算法的均方根誤差為1.3像素,SIFT算法的均方根誤差為1.8像素,SURF算法的均方根誤差為1.6像素,PSMNet算法的均方根誤差為0.9像素,GCNet算法的均方根誤差為0.8像素,改進算法的均方根誤差為0.8像素。在壞像素百分比上,SAD算法的壞像素百分比為15.2%,NCC算法的壞像素百分比為13.5%,SIFT算法的壞像素百分比為18.6%,SURF算法的壞像素百分比為16.8%,PSMNet算法的壞像素百分比為8.5%,GCNet算法的壞像素百分比為7.8%,改進算法的壞像素百分比為6.5%。在KITTI數(shù)據(jù)集上,由于該數(shù)據(jù)集場景的復雜性,各算法的性能表現(xiàn)與Middlebury數(shù)據(jù)集上有所不同。SAD算法在KITTI數(shù)據(jù)集上的平均誤差率高達20.3%,均方根誤差為2.5像素,壞像素百分比為25.6%;NCC算法的平均誤差率為18.5%,均方根誤差為2.2像素,壞像素百分比為22.8%;SIFT算法由于對尺度和旋轉變化具有較好的魯棒性,但在低紋理和遮擋區(qū)域表現(xiàn)較差,平均誤差率為22.4%,均方根誤差為2.8像素,壞像素百分比為28.5%;SURF算法的平均誤差率為21.2%,均方根誤差為2.6像素,壞像素百分比為26.7%;PSMNet算法在KITTI數(shù)據(jù)集上的平均誤差率為9.6%,均方根誤差為1.4像素,壞像素百分比為12.5%;GCNet算法的平均誤差率為8.8%,均方根誤差為1.3像素,壞像素百分比為11.2%;改進算法的平均誤差率為7.5%,均方根誤差為1.2像素,壞像素百分比為9.8%。從對比結果可以看出,改進算法在平均誤差率、均方根誤差和壞像素百分比等指標上均優(yōu)于傳統(tǒng)的基于區(qū)域和基于特征的匹配算法。與基于區(qū)域的SAD算法和NCC算法相比,改進算法通過引入?yún)^(qū)域信息和優(yōu)化匹配代價計算與代價聚合過程,能夠更好地適應圖像的復雜情況,減少誤匹配的發(fā)生,從而降低誤差指標。與基于特征的SIFT算法和SURF算法相比,改進算法不僅能夠利用圖像的特征信息,還能充分考慮圖像的區(qū)域結構和紋理信息,在低紋理和遮擋區(qū)域的表現(xiàn)明顯優(yōu)于基于特征的算法。與基于深度學習的PSMNet算法和GCNet算法相比,改進算法在Middlebury數(shù)據(jù)集上的均方根誤差與GCNet算法相當,在平均誤差率和壞像素百分比上略優(yōu)于GCNet算法;在KITTI數(shù)據(jù)集上,改進算法的各項指標均優(yōu)于PSMNet算法和GCNet算法。這表明改進算法在復雜場景下具有更好的適應性和準確性,能夠提供更可靠的視差估計結果。然而,改進算法也存在一些不足之處,例如,在處理動態(tài)場景時,由于算法主要基于靜態(tài)圖像的匹配,對于快速移動的物體可能會出現(xiàn)視差估計不準確的情況,這是后續(xù)研究需要進一步改進的方向。3.4.4微光數(shù)據(jù)的實驗結果分析為了驗證改進算法在低照度環(huán)境下的適用性,使用微光數(shù)據(jù)進行實驗。通過微光相機在低照度環(huán)境下采集了一系列圖像對,包括室內(nèi)微光場景和室外夜間場景。在室內(nèi)微光場景中,光照強度約為0.1lux,場景中包含家具、電器等物體,具有一定的紋理和遮擋情況;在室外夜間場景中,光照強度約為0.01lux,場景中有建筑物、樹木、車輛等物體,光照條件復雜,存在陰影和反光等情況。對采集到的微光數(shù)據(jù)進行處理和分析,采用峰值信噪比(PSNR)、結構相似性指數(shù)(SSIM)和平均梯度等指標來評估改進算法在微光數(shù)據(jù)上的性能。峰值信噪比用于衡量圖像經(jīng)過處理后與原始圖像之間的誤差,PSNR值越高,表示圖像的失真越小,質(zhì)量越好;結構相似性指數(shù)從亮度、對比度和結構三個方面綜合衡量兩幅圖像的相似程度,SSIM值越接近1,表示兩幅圖像越相似;平均梯度反映了圖像中細節(jié)和紋理的豐富程度,平均梯度越大,說明圖像的細節(jié)越清晰。在室內(nèi)微光場景中,傳統(tǒng)SGM算法處理后的圖像PSNR值為20.5dB,SSIM值為0.65,平均梯度為5.2;改進算法處理后的圖像PSNR值提高到了23.8dB,SSIM值增加到0.78,平均梯度提升到7.5。這表明改進算法能夠有效地抑制微光圖像中的噪聲,增強圖像的對比度和細節(jié)信息,使得處理后的圖像質(zhì)量得到顯著提升。在室外夜間場景中,由于光照條件更加惡劣,傳統(tǒng)SGM算法處理后的圖像PSNR值僅為18.3dB,SSIM值為0.56,平均梯度為3.8;改進算法處理后的圖像PSNR值達到了21.6dB,SSIM值為0.72,平均梯度為6.1。改進算法在室外夜間場景中同樣表現(xiàn)出了較好的性能
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 湖北省恩施市2025-2026學年上學期期末八年級數(shù)學試卷(無答案)
- 廣東省東莞市常平鎮(zhèn)2025-2026學年九年級上學期1月期末歷史試卷(含答案)
- 五年級測試卷及答案
- 文員考試試題及答案
- 《遇見未知的自我》讀后感范本
- 2022-2023學年山東省東營市墾利區(qū)九年級物理第一學期期末調(diào)研試題含解析
- 2022屆高考數(shù)學基礎總復習提升之專題突破詳解專題10三角函數(shù)的圖象與性質(zhì)含解析
- 六盤水中考滿分作文賞析:書給了我力量
- 22春“安全工程”專業(yè)《安全檢測及儀表》在線作業(yè)含答案參考2
- 師德以身作則演講稿
- 2025-2026年蘇教版初一歷史上冊期末熱點題庫及完整答案
- 規(guī)范園區(qū)環(huán)保工作制度
- 藥理學試題中國藥科大學
- 卓越項目交付之道
- (人教版)八年級物理下冊第八章《運動和力》單元測試卷(原卷版)
- 2026屆新高考語文熱點沖刺復習 賞析小說語言-理解重要語句含意
- 2026屆杭州學軍中學數(shù)學高三上期末綜合測試模擬試題含解析
- 創(chuàng)世紀3C數(shù)控機床龍頭、高端智能裝備與產(chǎn)業(yè)復蘇雙輪驅動
- (新版!)“十五五”生態(tài)環(huán)境保護規(guī)劃
- 教培行業(yè)年終述職
- 2025中國西電集團有限公司招聘(35人)筆試備考試題附答案
評論
0/150
提交評論