【《典型圖像去煙去霧算法分析概述》7600字】_第1頁
【《典型圖像去煙去霧算法分析概述》7600字】_第2頁
【《典型圖像去煙去霧算法分析概述》7600字】_第3頁
【《典型圖像去煙去霧算法分析概述》7600字】_第4頁
【《典型圖像去煙去霧算法分析概述》7600字】_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

付費下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

[28]。物體呈現(xiàn)出的顏色取決于物體對短波(藍)、中波(綠)和長波(紅)光線的反射水平,而不是非反射光強度的絕對值,是Retinex理論的核心思想;光照不均勻性無法改變對象的顏色,即此理論是基于色彩感知一致性的。依照?Land推出的那個理論,將一個假設(shè)的圖像S(x,y)拆分為2個不一樣的圖像分別是反射物體圖像R(x,y)和入射光圖像L(x,y)。關(guān)于圖像S內(nèi)的各點(x,y),有如下關(guān)系式:S(x,y)=R(x,y)×L(x,y)(3-13)Retinex理論實際上即為從操作圖像S來獲得物體的反射性質(zhì)R,等同于消除了入射光L的屬性以獲得物體原始的外觀。此原理圖像去霧的主要流程見下:第一步:?通過選取對數(shù)來拆分成入射光與反射光分量,即:S'(x,?y)=r(x,?y)+l(x,?y)=log(R(x,?y))+log(L(x,?y))(3-14)第二步:通過使用高斯模板卷積我們的原始圖像,也就是說將原始圖像進行低通濾波,獲得處理后的圖像D(x,y),F(xiàn)(x,?y)為高斯濾波函數(shù):D(x,?y)=S(x,?y)??F(x,?y)(3-15)第三步:于對數(shù)域范圍內(nèi)我們進行從原始圖像中減去完成低通濾波后的圖像,來獲得高頻增強的圖像G(x,?y)。Retinex算法的核心理論是隨機所有的圖像都可以拆解成入射與反射圖像,因此于圖像內(nèi)R(x,y)能夠經(jīng)過數(shù)學(xué)的公式計算出來,并且對R(x,y)進行數(shù)學(xué)的估算,可以減小或徹底避免L(x,y)對原來圖像的不良作用,所以在反射圖像R(x,y)上能夠最大程度地留存原本物體的特征。圖1.4Retinex算法理論圖上圖顯示了物體被入射光映照并且反射的光彈照至瞳孔處所呈現(xiàn)的圖像就是咱們注視的圖像。關(guān)于圖像S內(nèi)的各點(x,y),有關(guān)系式(3-16)見下。S(x,y)=R(x,y)﹒L(x,y)(3-16)S(x,y)是瞳孔可以看到的反射光的映照出來的圖像,L(x,y)是入射光映照出來的圖像也是展現(xiàn)亮度高低的圖像,并且此理論的長處是:通過判斷L(x,y)可以于動態(tài)范疇中緊縮圖像,入射光映照的圖像是瞳孔中的低頻部分。反射光映照出來的圖像為R(x,y),其為物體的本質(zhì)。計算是亮度猜度的要旨。通過普通的數(shù)學(xué)辦法去計算無比復(fù)雜,所以要給(3-5)式采取對數(shù)算法,見式(3-17)與式(3-18)。Log(S(x,y)+1)=log(R(x,y)?L(x,y)+1)(3-17)s(x,y)=log(1+S(x,y))(3-18)以上就高幅度地減小了運算量。對數(shù)范疇中單尺度算法見式(3-19)。r(x,y)=log[R(x,y)]=logSRetinex算法以前有過很多樣式,譬如高斯指數(shù)樣式和平方之后相反變化圍繞的樣式等。然而于SSR內(nèi)Jobson及其助手還提出了可以通過使用高斯卷積函數(shù)來達到圖像增強的目的。其是操作原始圖像的局部區(qū)域,該處理方法比以前的樣式愈發(fā)精確。詳細運算見式(3-20):G(x,y)=λe?x2Gx,y=1,c是濾波半徑,還有λ因此能夠?qū)С鯯SR算法式子見式(3-21)。r(x,y)=log[R(x,y)]=logSx,yLx,y

圖像輸出圖像輸入圖像輸出圖像輸入選取指數(shù)歸一化選取指數(shù)歸一化與輸入圖像矩陣的對數(shù)相差配置高斯函數(shù)參數(shù)和矩陣與輸入圖像矩陣的對數(shù)相差配置高斯函數(shù)參數(shù)和矩陣選取對數(shù)高斯函數(shù)與輸入矩陣卷積選取對數(shù)高斯函數(shù)與輸入矩陣卷積圖1.5Retinxe算法流程圖1.2基于大氣散射模型的去煙去霧算法目前幾乎所有的基于物理模型的去霧算法均通過大氣散射模型實現(xiàn)圖像去霧。在本節(jié)中將以具有代表性的基于暗通道先驗理論的圖像去霧算法(DCP)來舉例分析。具體地,有霧圖像I(x)可以表示成如下形式:I(x)=J(x)t(x)+A(1?t(x))(2.18)其中,x是I(x)中的某一像素點,I(x)是經(jīng)過大氣粒子散射到達傳感器的有霧圖像,J(x)是未被大氣粒子散射之前的清晰無霧圖像,A是大氣光照,t(x)是場景透射率,可以表示成如下形式:tx=e?βd(x) 其中β是大氣散射系數(shù),d(x)表示場景深度。從公式(2.18)可以看出,基于大氣散射模型實現(xiàn)圖像去霧的關(guān)鍵是求解兩個未知參數(shù)透射率值t(x)和大氣光照值A(chǔ)。再將透射率t(x)的估計值和大氣光照A的估計值代入大氣散射模型公式(2.18)中,即可得到恢復(fù)的無霧圖像。1.2.1基于暗通道先驗算法He等人通過分析總結(jié)無霧圖像的特征,提出了經(jīng)典的暗通道先驗理論(DCP)。暗通道先驗理論中提到:在晴朗天氣下,室外拍攝的大多數(shù)清晰圖像,在除去圖像的天空區(qū)域后,RGB圖像中至少存在一個通道中有強度很低趨于0的像素值。因此,任意一幅清晰的圖像J(x),可以表示成如下形式:Jdark(x)=miny∈Ω(x)minc∈Jdark→0 其中,Jc為清晰圖像J(x)中RGB顏色空間某一顏色通道的圖像,Ω(x)為圖像J(x)中以像素第一步:估計并細化透射率值,具體過程如下:假設(shè)全局大氣光照A已知,并且是正值,對大氣散射模型公式(2.18)兩邊分別除以AcIc(x)Ac=t(x)對上式(2.22)進行最小化,可以得到式(2.23):miny∈Ω(x)(在上式(2.23)中,t(x)在一個很小的鄰域內(nèi)是常量,因此可以不放在最小化操作內(nèi)。并且,無霧圖像Jdark(x)=miny∈Ω同理,將式(2.24)除以Acminy∈Ω(x)mincJ將式(2.25)帶入式(2.23)中,可以得到粗略的透射率為:tx=1?miny∈Ω并且DCP算法中增加了w使得去霧后的圖像更自然,得到式(2.27):tx=1?wminy∈Ω(x)在DCP算法中,w=0.95。并且,He等人使用軟摳圖算法對上述粗略透射率進行細化。第二步:估計大氣光照值,具體過程如下:DCP算法中大氣光照的估計基于暗通道先驗知識,首先選擇暗通道圖中前0.1%的像素,并求出這部分像素對應(yīng)的原有霧圖像處的強度值,強度最大的值即為大氣光照值A(chǔ)的估計值。第三步:根據(jù)估計的透射率值和大氣光照值恢復(fù)無霧清晰圖像,具體過程如下:將第一步和第二步中求解得到的透射率值t(x)和大氣光照值A(chǔ)代入公式(2.18)中,輸出即為去霧后的清晰圖像J(x),可以表示成如下形式:J(x)=I(x)?Amax(t(x),t0)+A其中,t01.3基于深度學(xué)習(xí)的去煙去霧算法圖像去霧是圖像特征處理領(lǐng)域內(nèi)一個頗受關(guān)注的低層次計算機視覺任務(wù),對目標(biāo)識別、語義分割等眾多高層次計算機視覺任務(wù)至關(guān)重要。本節(jié)將分析三種具有代表性的基于卷積神經(jīng)網(wǎng)絡(luò)的圖像去霧算法:卷積神經(jīng)網(wǎng)絡(luò)DehazeNet,MSCNN和AOD-Net。1.1.1基于卷積網(wǎng)絡(luò)DehazeNet算法Cai等人基于傳統(tǒng)去霧算法中的先驗特征,首次提出構(gòu)建卷積網(wǎng)絡(luò)模型DehazeNet來實現(xiàn)單幅圖像去霧,并提出新的激勵函數(shù)雙邊糾正線性單元。DehazeNet模型的輸入為有霧圖像,輸出為有霧圖像對應(yīng)的透射率圖。DehazeNet的網(wǎng)絡(luò)結(jié)構(gòu)如圖2.5所示,具體結(jié)構(gòu)如下:圖1.6DehazeNet模型結(jié)構(gòu)圖1、輸入層和特征提取層DehazeNet模型的輸入層是尺寸為16×16的有霧圖像塊。DehazeNet模型采用卷積層+激活層的結(jié)構(gòu)來實現(xiàn)輸入圖像塊的特征提取,其中,激活函數(shù)為最大輸出單元(Maxout)。Maxout單元對輸入特征圖的通道進行分組,對每組特征圖進行最大值操作。“卷積層+Maxout激活函數(shù)”結(jié)構(gòu)通過自動提取霧霾相關(guān)特征來代替?zhèn)鹘y(tǒng)去霧算法中先驗特征的提取,當(dāng)濾波器[的權(quán)值系數(shù)和偏置分別取合適的矩陣時,特征提取層的輸出可等價為傳統(tǒng)去霧算法中的暗通道先驗特征(DarkChannelPrior,DCP);當(dāng)濾波器的權(quán)值系數(shù)同時包含反向濾波器和全通濾波器時,特征提取層的輸出分別等價于輸入圖像塊的通道最小值與通道最大值,可對應(yīng)于基于HSV顏色空間的顏色衰減先驗特征(ColorAttenuationPrior,CAP)和色相差異先驗特征(HueDisparityPrior,HDP)。2、多尺度映射層和局部極值層在DehazeNet模型中,為充分提取輸入特征圖中不同范圍感受野的霧霾特征,Cai等人采用不同卷積核大小的卷積層構(gòu)建多尺度映射層。三組用于構(gòu)建多尺度映射層的濾波器的卷積核大小分別為3×3、5×5和7×7。并且,3組不同卷積核大小的濾波器個數(shù)均為16個。在傳統(tǒng)去霧算法中,估計透射率值時一般假設(shè)有霧圖像局部區(qū)域的透射率值是一致的。局部極值操作符合透射率的局部一致性假設(shè),并可以有效抑制輸出透射率圖中的噪聲。3、非線性回歸層和輸出層在非線性回歸層,DehazeNet中采用新的雙邊糾正線性單元,該單元不僅能夠保證對雙邊進行修正,還可以保證局部的線性。通過上述網(wǎng)絡(luò)結(jié)構(gòu),可以得到輸入圖像塊的透射率圖。在DehazeNet中,大氣光照值的估計基于暗通道先驗理論,通過網(wǎng)絡(luò)模型得到有霧圖像的透射率圖后,選擇透射率圖中較暗的像素值,再計算原有霧圖像中這些像素點對應(yīng)的強度,最大的強度值選為估計的大氣光照值。最后,根據(jù)大氣散射模型公式(2.18)即可恢復(fù)清晰的無霧圖像。1.1.2基于多尺度卷積網(wǎng)絡(luò)MSCNN算法在上面本文分析了基于先驗信息構(gòu)建的首個用于圖像去霧的卷積神經(jīng)網(wǎng)絡(luò)模型DehazeNet,DehazeNet激勵層等得到有霧圖像的透射率圖。但是通過DehazeNet得到的透射率并未細化,針對該問題,Ren等人設(shè)計了一種多尺度卷積神經(jīng)網(wǎng)絡(luò)模型MSCNN用于圖像去霧。MSCNN模型將先驗信息融入網(wǎng)絡(luò)模型的特征提取層中,并通過多尺度映射層、由粗尺度卷積網(wǎng)絡(luò)和細尺度卷積網(wǎng)絡(luò)組成,網(wǎng)絡(luò)的輸入為有霧圖像,輸出為輸入圖像對應(yīng)的透射率圖。MSCNN模型的結(jié)構(gòu)如圖2.6所示:圖1.7 MSCNN模型結(jié)構(gòu)圖1、粗尺度卷積神經(jīng)網(wǎng)絡(luò)粗尺度卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)是預(yù)測場景的整體透射率圖。粗尺度卷積神經(jīng)網(wǎng)絡(luò)由多尺度卷積層、池化層、上采樣層以及線性連接層組成。其中,多尺度卷積層包括3個不同卷積核大小的卷積層,卷積核大小分別為11×11、9×9和7×7,每個卷積層后均是同樣池化核大小的池化層以及上采樣層。在粗尺度卷積網(wǎng)絡(luò)中,Ren等人將先驗信息融入到卷積層中,從而提取出有霧圖像的特征。粗尺度卷積神經(jīng)網(wǎng)絡(luò)的輸出為粗略的透射率圖,該透射率圖將作為細尺度卷積神經(jīng)網(wǎng)絡(luò)的輸入。2、細尺度卷積神經(jīng)網(wǎng)絡(luò)細尺度卷積神經(jīng)網(wǎng)絡(luò)的任務(wù)是細化上述粗尺度卷積神經(jīng)網(wǎng)絡(luò)輸出的粗略透射率圖,通過將有霧圖像和粗略透射率圖輸入細尺度卷積神經(jīng)網(wǎng)絡(luò),可以得到更加準(zhǔn)確的透射率圖。細尺度卷積神經(jīng)網(wǎng)絡(luò)模型包括3個不同尺度的卷積層,卷積核大小分別為7×7、5×5和3×3,池化層中的池化核大小和粗尺度卷積網(wǎng)絡(luò)中的一致,均為2×2。最后,經(jīng)過細尺度卷積神經(jīng)網(wǎng)絡(luò)的細化,模型的輸出為細化后的透射率圖。同理,MSCNN算法中對大氣光照的估計是基于暗通道先驗理論的。在得到細化后的透射率圖后,選取透射率圖中較暗的像素點,求出其對應(yīng)的原有霧圖像中像素點處的強度,強度最大的值即為大氣光照值。再將MSCNN模型的輸出透射率圖和求解到的大氣光照值代入大氣散射模型公式(2.18)中,可以得到去霧后的圖像。1.1.3基于一體化卷積網(wǎng)絡(luò)AOD?Net算法上面分析了兩種具有代表性的非端到端的卷積神經(jīng)網(wǎng)絡(luò)模型DehazeNet和MSCNN,這兩種模型均基于先驗知識構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)模型,模型的輸出為有霧圖像的透射率圖,并基于暗通道先驗理論單獨估計大氣光照值。但是當(dāng)有霧圖像中物體背景和大氣光接近時,可能會導(dǎo)致估計的大氣光照值出現(xiàn)誤差。并且,通過單獨估計兩個未知參數(shù)透射率值和大氣光照值,再將兩個參數(shù)的估計值代入大氣散射模型中可能會進一步增大誤差,影響去霧的效果。為解決該問題,Li等人提出首個端到端的卷積神經(jīng)網(wǎng)絡(luò)模型[30]AOD-Net用于圖像去霧,AOD-Net模型的輸出即為去霧后的清晰圖像,并且無需單獨估計透射率值和大氣光照值。AOD-Net模型中關(guān)鍵的改進點是通過對上面所述的大氣散射模型公式(2.18)進行變換,得到變換后的公式如下:Jx=1tx根據(jù)上式(2.35),將輸入圖像的透射率值t(x)和大氣光照值A(chǔ)進行合并,可以得到K(x):Kx=1tx其中,b為常數(shù)。將大氣光照值A(chǔ)視為常數(shù),則上式(2.35)可以改寫成如下形式:J(x)=K(x)I(x)?K(x)+b (2.37)AOD-Net模型將多個級聯(lián)的卷積層、全連接層進行組合構(gòu)建端到端的去霧模型,得到的輸出為透射率和大氣光照的合并值K(x),再將K(x)代入公式(2.37)中,即可得到去霧后的無霧清晰圖像。圖2.7所示為AOD-Net算法實現(xiàn)框架圖。AOD-Net模型中使用均方差(MSE)作為損失函數(shù),是基于模型輸出的無霧圖像和實際有霧圖像建立的,因此模型訓(xùn)練過程中損失函數(shù)值收斂較快,使用AOD-Net模型進行單幅圖像去霧所需的時間較少。實現(xiàn)框架圖如下[29]。圖1.8.1AOD-Net算法總體框架圖圖1.8.2AOD-Net算法K估計模塊詳細結(jié)構(gòu)圖1.4去霧效果對比分析本章對目前圖像去霧算法中具有代表性的算法進行了分析,包括圖像增強算法中的全局直方圖均衡化算法、局部直方圖均衡化算法以及基于Retinex的去霧算法,基于大氣散射模型去霧算法中的基于暗通道先驗算法,基于深度學(xué)習(xí)去霧算法中的DehazeNet模型算法、MSCNN模型算法以及AOD-Net模型算法。在本節(jié)中將對上述去霧算法進行分析比較。整體上看,所有的算法均達到了去霧使圖像更加清晰的目的。全局直方圖均衡化算法處理后的圖像在物體邊緣處出現(xiàn)明顯的塊效應(yīng)。同態(tài)濾波算法處理后的圖像比較明亮,對物體邊緣的處理效果不錯,但對圖像中心區(qū)域的去霧

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論