基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)_第1頁(yè)
基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)_第2頁(yè)
基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)_第3頁(yè)
基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)_第4頁(yè)
基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)_第5頁(yè)
已閱讀5頁(yè),還剩28頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于深度學(xué)習(xí)的圖像修復(fù)系統(tǒng)設(shè)計(jì)摘要:基于卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)是一種基于深度學(xué)習(xí)的圖像處理方法。該方法使用卷積神經(jīng)網(wǎng)絡(luò)從大量圖像數(shù)據(jù)中自動(dòng)學(xué)習(xí)圖像特征,并將這些特征用于修復(fù)缺失圖像部分。在采用卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)技術(shù)中,典型的網(wǎng)絡(luò)架構(gòu)由特征提取的編碼器和圖像重建的解碼器兩部分構(gòu)成。編碼器的作用是從輸入圖像中提煉出關(guān)鍵的特征信息,而解碼器負(fù)責(zé)利用這些特征生成與原圖盡量一致的修復(fù)圖像。為了提升網(wǎng)絡(luò)的性能,這類(lèi)圖像修復(fù)技術(shù)常見(jiàn)地運(yùn)用了反卷積和跳躍連接等先進(jìn)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò)在圖像修復(fù)領(lǐng)域展現(xiàn)出了眾多的優(yōu)勢(shì),它能夠自動(dòng)識(shí)別和學(xué)習(xí)圖像的特征,展現(xiàn)出了高度的精確度和效率,并且能夠適應(yīng)多種不同的圖像修復(fù)需求。這種方法已經(jīng)在眾多應(yīng)用場(chǎng)景中得到了應(yīng)用和驗(yàn)證,比如在醫(yī)療影像的診斷以及智能監(jiān)控領(lǐng)域。本研究基于注意力機(jī)制的圖像修復(fù)理念,在PyQT5框架下開(kāi)發(fā)了一個(gè)圖像修復(fù)系統(tǒng)。盡管卷積神經(jīng)網(wǎng)絡(luò)圖像修復(fù)方法可以在一定程度上替代傳統(tǒng)圖像修復(fù)方法,但它仍然面臨著一些挑戰(zhàn),如需要大量的訓(xùn)練數(shù)據(jù)、網(wǎng)絡(luò)過(guò)擬合問(wèn)題等。因此,還需要更深入的研究來(lái)解決這些問(wèn)題,以進(jìn)一步提高卷積神經(jīng)網(wǎng)絡(luò)圖像修復(fù)方法的性能和可靠性。關(guān)鍵詞:深度學(xué)習(xí);圖像修復(fù);卷積神經(jīng)網(wǎng)絡(luò);GAN

DesignofImageRestorationSystemBasedonDeepLearningAbstract:Convolutionalneuralnetwork-basedimagerestorationisadeeplearningbasedimageprocessingmethod.Thismethodusesconvolutionalneuralnetworkstoautomaticallylearnimagefeaturesfromalargeamountofimagedataandusesthesefeaturestorepairmissingimageparts.Inconvolutionalneuralnetworkimagerestorationmethods,thenetworkarchitecturetypicallyconsistsofanencoderandadecoder,wheretheencoderisusedtoextractfeaturesfromtheinputimageandthedecoderisusedtogeneraterestorationresultsthatareasclosetotherealimageaspossible.Inaddition,convolutionalneuralnetworkimagerestorationmethodstypicallyusetechniquessuchasdeconvolutionandskipconnectionstoenhancenetworkperformance.Convolutionalneuralnetworkimagerestorationmethodshavemanyadvantages,includingtheabilitytoautomaticallylearnimagefeatures,highaccuracyandefficiency,andtheabilitytoadapttodifferenttypesofimagerestorationtasks.Thismethodhasbeenvalidatedinmanyscenarios,suchasmedicalimagingdiagnosis,intelligentmonitoring,andotherfields.ThisarticleisbasedonattentionimagerestorationanddesignsanimagerestorationsysteminthePyQT5framework.Althoughconvolutionalneuralnetworkimagerestorationmethodscantosomeextentreplacetraditionalimagerestorationmethods,theystillfacesomechallenges,suchasrequiringalargeamountoftrainingdata,networkoverfittingproblems,etc.Therefore,furtherin-depthresearchisneededtoaddresstheseissuesinordertofurtherimprovetheperformanceandreliabilityofconvolutionalneuralnetworkimagerestorationmethods.Convolutionalneuralnetwork-basedimagerestorationisadeeplearningbasedimageprocessingmethod.Thismethodusesconvolutionalneuralnetworkstoautomaticallylearnimagefeaturesfromalargeamountofimagedataandusesthesefeaturestorepairmissingimageparts.Inconvolutionalneuralnetworkimagerestorationmethods,thenetworkarchitecturetypicallyconsistsofanencoderandadecoder,wheretheencoderisusedtoextractfeaturesfromtheinputimageandthedecoderisusedtogeneraterestorationresultsthatareasclosetotherealimageaspossible.Inaddition,convolutionalneuralnetworkimagerestorationmethodstypicallyusetechniquessuchasdeconvolutionandskipconnectionstoenhancenetworkperformance.Convolutionalneuralnetworkimagerestorationmethodshavemanyadvantages,includingtheabilitytoautomaticallylearnimagefeatures,highaccuracyandefficiency,andtheabilitytoadapttodifferenttypesofimagerestorationtasks.Thismethodhasbeenvalidatedinmanyscenarios,suchasmedicalimagingdiagnosis,intelligentmonitoring,andotherfields.ThisarticleisbasedonattentionimagerestorationanddesignsanimagerestorationsysteminthePyQT5framework.Althoughconvolutionalneuralnetworkimagerestorationmethodscantosomeextentreplacetraditionalimagerestorationmethods,theystillfacesomechallenges,suchasrequiringalargeamountoftrainingdata,networkoverfittingproblems,etc.Therefore,furtherin-depthresearchisneededtoaddresstheseissuesinordertofurtherimprovetheperformanceandreliabilityofconvolutionalneuralnetworkimagerestorationmethods.Keywords:DeepLearning;ImageRestoration;ConvolutionalNeuralNetwork;GAN緒論研究背景在最近幾年,互聯(lián)網(wǎng)技術(shù)的迅猛發(fā)展促使深度學(xué)習(xí)成為了計(jì)算機(jī)視覺(jué)研究領(lǐng)域內(nèi)的一個(gè)焦點(diǎn)。深度學(xué)習(xí),這一基于人腦工作原理構(gòu)建的復(fù)雜神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),作為表征學(xué)習(xí)的一個(gè)分支,能夠模擬人類(lèi)神經(jīng)元之間的信息交換,從而識(shí)別輸入數(shù)據(jù)中的特征并映射到輸出結(jié)果。利用深度學(xué)習(xí)技術(shù)進(jìn)行圖像修復(fù)能夠有效地理解圖像中的語(yǔ)義內(nèi)容,并預(yù)測(cè)填充缺失部分,這一點(diǎn)上遠(yuǎn)超過(guò)了傳統(tǒng)算法的能力,讓修復(fù)結(jié)果更加合乎邏輯。隨著研究的深入,特別是卷積神經(jīng)網(wǎng)絡(luò)這類(lèi)前饋神經(jīng)網(wǎng)絡(luò)被發(fā)現(xiàn)能有效捕捉到圖像中的高級(jí)抽象信息。深度神經(jīng)網(wǎng)絡(luò)通過(guò)搭建多層結(jié)構(gòu),實(shí)現(xiàn)對(duì)目標(biāo)的多層次表示,意在通過(guò)這種多層次的高級(jí)特征來(lái)表達(dá)數(shù)據(jù)的深層語(yǔ)義,從而提高模型的特征識(shí)別魯棒性。深度學(xué)習(xí)在圖像修復(fù)方面的應(yīng)用克服了傳統(tǒng)方法長(zhǎng)期存在的局限性,顯著地提升了修復(fù)效果的品質(zhì)。此外,Goodfellow等人在2014年提出的生成對(duì)抗網(wǎng)絡(luò)(GAN),已經(jīng)證明這一方法能顯著提高圖像修復(fù)的質(zhì)量,標(biāo)志著深度學(xué)習(xí)技術(shù)在這一領(lǐng)域的又一突破。因此,使用GAN生成圖像的缺失內(nèi)容可以取得相當(dāng)令人印象深刻的效果。\t"/qq_61141142/article/details/_blank"數(shù)字圖像修復(fù)技術(shù)對(duì)局部區(qū)域有數(shù)據(jù)丟失或損壞的數(shù)字圖像按照某種特定規(guī)則進(jìn)行處理,以恢復(fù)原圖像的完整性。數(shù)字圖像修復(fù)技術(shù)在修復(fù)破損文物字畫(huà)、修復(fù)由網(wǎng)絡(luò)傳輸?shù)仍蛞鸬臍埲眻D像、去除圖像及視頻中的文字和劃痕、以及移除目標(biāo)物體后的背景恢復(fù)等方面都有廣泛的應(yīng)用。當(dāng)前,隨著科技的發(fā)展,對(duì)圖像修復(fù)技術(shù)的要求進(jìn)一步提高,所以,提升圖像修復(fù)技術(shù)以及圖像修復(fù)的質(zhì)量是非常重要的。國(guó)內(nèi)外研究現(xiàn)狀圖像修復(fù)技術(shù)有許多目標(biāo)和應(yīng)用,攝影和電影業(yè)中,使用這一技術(shù)來(lái)修復(fù)電影、還原變質(zhì)惡化的膠片。同時(shí),還可用來(lái)消除紅眼、照片上的日期、水印等等,甚至還可以實(shí)現(xiàn)某些特效。數(shù)字圖像的編碼和傳輸過(guò)程中也能使用圖像修復(fù)技術(shù)替換丟失的數(shù)據(jù)。圖像修復(fù)工作的方法論如下:如何填補(bǔ)缺口主要由圖片全局情況決定,圖像修復(fù)的目的是維持原圖整體的和諧統(tǒng)一、要把缺口四周原有的結(jié)構(gòu)延續(xù)到缺口內(nèi)部、缺口內(nèi)部可以被四周結(jié)構(gòu)的延伸劃分為若干區(qū)域,每個(gè)區(qū)域填充與四周邊界相似的顏色、重新繪制缺口內(nèi)的細(xì)節(jié),即匹配紋理。傳統(tǒng)圖像修復(fù)能力有限,無(wú)法很好完成破損比較嚴(yán)重的圖像塊修復(fù),當(dāng)前基于深度學(xué)習(xí)模型和生成對(duì)抗網(wǎng)絡(luò)的思想逐漸被運(yùn)用于圖像修復(fù),并且,也取得了很好的效果。國(guó)內(nèi)外在圖像修復(fù)技術(shù)的研究上主要集中于兩個(gè)方面:基于像素操作的方法、基于塊操作的方法,基于像素操作的算法處理的對(duì)象是像素點(diǎn),比較適用于修復(fù)小面積破損區(qū)域,主要有偏微分方程(PDE)

模型、基于鄰域模板或插值的算法等?;趬K操作的算法處理對(duì)象是圖像塊,例如5×5、7×

7的目標(biāo)塊,比較適合修復(fù)信息丟失區(qū)域較大的圖像,主要包括:基于樣本的修復(fù)算法、基于紋理合成的修復(fù)算法、基于小波變換的修復(fù)算法以及基于分形理論的修復(fù)算法等.。近年來(lái),圖像增強(qiáng)和修復(fù)技術(shù)一直是計(jì)算機(jī)視覺(jué)領(lǐng)域的研究熱點(diǎn)。傳統(tǒng)的圖像增強(qiáng)方法主要基于直方圖均衡化、濾波等技術(shù)。而基于深度學(xué)習(xí)的方法,如卷積神經(jīng)網(wǎng)絡(luò)(CNN)、生成對(duì)抗網(wǎng)絡(luò)(GAN)等,在圖像增強(qiáng)和修復(fù)方面取得了顯著成果。國(guó)內(nèi)外眾多研究機(jī)構(gòu)和企業(yè)都在積極投入相關(guān)研究,推動(dòng)技術(shù)進(jìn)步。研究目的及意義傳統(tǒng)圖像修復(fù)能力有限,無(wú)法很好完成破損比較嚴(yán)重的圖像塊修復(fù),當(dāng)前基于深度學(xué)習(xí)模型和生成對(duì)抗網(wǎng)絡(luò)的思想逐漸被運(yùn)用于圖像修復(fù),并且,也取得了很好的效果。圖像修復(fù)技術(shù)在現(xiàn)實(shí)中有著非常廣闊的應(yīng)用場(chǎng)景,例如,我們?nèi)粘I钪谐R?jiàn)的掃描老舊照片,存放時(shí)間較長(zhǎng)的照片容易出現(xiàn)污漬或者劃痕,在將其掃描成電子照片之后需要進(jìn)行數(shù)字化修復(fù);在遙感領(lǐng)域,成像方法主要有航空攝影、航空掃描以及微波雷達(dá),由于傳感器故障、噪聲干擾或云層遮擋等原因,通常需要對(duì)遙感圖像進(jìn)行修復(fù);在網(wǎng)絡(luò)傳輸過(guò)程中,由于網(wǎng)絡(luò)波動(dòng)或設(shè)備故障等原因?qū)е虏糠謭D像數(shù)據(jù)缺失,也需要用到圖像修復(fù)技術(shù),以便進(jìn)行后續(xù)的數(shù)據(jù)處理。同時(shí),這些應(yīng)用場(chǎng)景中的研究也不斷推動(dòng)著圖像修復(fù)技術(shù)的發(fā)展。本文通過(guò)了解深度學(xué)習(xí)中圖像修復(fù)的相關(guān)知識(shí),了解目前的算法存在的缺陷以及問(wèn)題,將全卷積神經(jīng)網(wǎng)絡(luò)以及生成對(duì)抗網(wǎng)絡(luò)兩種網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行結(jié)合,設(shè)計(jì)了全局和局部一致性的圖像修復(fù)系統(tǒng)。此系統(tǒng)提高了圖像系統(tǒng)的效率,并且運(yùn)用python的thinker庫(kù)做了一個(gè)圖形化界面,可以實(shí)現(xiàn)方便快捷以及隨機(jī)或者自選圖片的圖像修復(fù)。論文的組織結(jié)構(gòu)本篇論文研究的圖像修復(fù)方法主要使用全局-局部一致的圖像補(bǔ)全方法,第一要事先規(guī)定好預(yù)訓(xùn)練次數(shù),訓(xùn)練圖像修復(fù)網(wǎng)絡(luò),在一定程度上提升其圖像生成能力,完成圖像修復(fù)網(wǎng)絡(luò)的單獨(dú)訓(xùn)練后,第二對(duì)修復(fù)網(wǎng)絡(luò)及兩個(gè)判別網(wǎng)絡(luò)進(jìn)行聯(lián)合訓(xùn)練,進(jìn)而使修復(fù)結(jié)果得到改善REF_Ref135489384\r\h[5]。本文的章節(jié)概括如下:第一章講述了這次進(jìn)行論文研究的背景以及意義等,簡(jiǎn)單論述國(guó)內(nèi)外圖像修復(fù)技術(shù)的研究現(xiàn)狀以及使用的方法論,介紹了本文運(yùn)用更加方便快捷的圖像修復(fù)系統(tǒng)實(shí)現(xiàn)了效率更高的圖像修復(fù),并且介紹了本篇論文的組織結(jié)構(gòu)。第二章介紹了本篇論文中所主要涉及的理論,簡(jiǎn)單介紹目前圖像修復(fù)技術(shù)主要應(yīng)用的兩大網(wǎng)絡(luò),并深度講述了基于深度學(xué)習(xí)的主要的圖像修復(fù)方法。第三章講解了全局-局部一致的圖像修復(fù)系統(tǒng)的設(shè)計(jì)及理論架構(gòu),并由總體到局部對(duì)網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行介紹;同時(shí),論文講解了相關(guān)損失函數(shù)的選擇與作用,并且詳細(xì)講解算法的訓(xùn)練流程。第四章首先介紹了開(kāi)發(fā)環(huán)境及安裝過(guò)程,對(duì)數(shù)據(jù)集的選擇和預(yù)處理進(jìn)行講解,結(jié)合代碼,詳細(xì)講解網(wǎng)絡(luò)實(shí)現(xiàn)過(guò)程、測(cè)試和訓(xùn)練的詳細(xì)過(guò)程。展示了經(jīng)過(guò)不同的訓(xùn)練次數(shù)后,算法得到的測(cè)試結(jié)果。第五章反思本次圖像修復(fù)系統(tǒng)的設(shè)計(jì)中存在的不足,對(duì)神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)、圖像修復(fù)的未來(lái)作出展望。本章小結(jié)本章首先介紹了圖像修復(fù)技術(shù)的背景,其次簡(jiǎn)單論述國(guó)內(nèi)外關(guān)于基于深度學(xué)習(xí)的圖像修復(fù)技術(shù)目前的研究現(xiàn)狀以及所使用的方法論;明確指出本次研究的目的并且總結(jié)了這次系統(tǒng)研究的積極影響以及意義,也對(duì)本篇論文的組織結(jié)構(gòu)進(jìn)行了綜述。相關(guān)理論機(jī)器學(xué)習(xí)機(jī)器學(xué)習(xí)已成為人工智能(AI)和模式識(shí)別領(lǐng)域的核心焦點(diǎn),其理論基礎(chǔ)和方法論被廣泛應(yīng)用于解決各種工程和科學(xué)問(wèn)題。這一領(lǐng)域致力于研究如何讓計(jì)算機(jī)模擬人類(lèi)的學(xué)習(xí)過(guò)程,代表了人工智能中最具創(chuàng)新性和智能特質(zhì)的研究方向。自20世紀(jì)80年代起,機(jī)器學(xué)習(xí)作為實(shí)現(xiàn)AI的關(guān)鍵手段受到廣泛關(guān)注,尤其是在過(guò)去幾十年,這個(gè)領(lǐng)域的發(fā)展速度加快,成為AI的重要組成部分。機(jī)器學(xué)習(xí)的應(yīng)用領(lǐng)域十分廣泛,不僅包括知識(shí)驅(qū)動(dòng)的系統(tǒng),還涵蓋自然語(yǔ)言處理、邏輯推理、機(jī)器視覺(jué)、模式識(shí)別等多個(gè)方面。系統(tǒng)是否具備學(xué)習(xí)能力已成為衡量其是否智能的關(guān)鍵標(biāo)準(zhǔn)。機(jī)器學(xué)習(xí)的研究可分為兩個(gè)主要方向:一是傳統(tǒng)機(jī)器學(xué)習(xí),主要探索人類(lèi)學(xué)習(xí)機(jī)制的計(jì)算模型;二是基于大數(shù)據(jù)的機(jī)器學(xué)習(xí),這一方向關(guān)注如何從海量數(shù)據(jù)中挖掘有價(jià)值的信息,重在發(fā)現(xiàn)隱藏的、有效的知識(shí)。經(jīng)過(guò)70年的發(fā)展,尤其是深度學(xué)習(xí)的興起,機(jī)器學(xué)習(xí)借鑒了人腦的層次結(jié)構(gòu)和神經(jīng)元連接,實(shí)現(xiàn)了通過(guò)層次化處理逐步抽取信息的強(qiáng)大學(xué)習(xí)能力,這在眾多領(lǐng)域都取得了革命性的突破。從決策樹(shù)、隨機(jī)森林、人工神經(jīng)網(wǎng)絡(luò)到貝葉斯網(wǎng)絡(luò),傳統(tǒng)機(jī)器學(xué)習(xí)方法的研究為理解和模擬人類(lèi)的學(xué)習(xí)過(guò)程提供了豐富的理論和實(shí)踐基礎(chǔ)。此外,隨著技術(shù)的進(jìn)步,機(jī)器學(xué)習(xí)領(lǐng)域也在不斷探索新的研究路徑和方法,如增強(qiáng)學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)等,進(jìn)一步拓寬了AI的應(yīng)用范圍,使得機(jī)器學(xué)習(xí)成為推動(dòng)科技創(chuàng)新和社會(huì)發(fā)展的關(guān)鍵力量。深度學(xué)習(xí)深度學(xué)習(xí),作為機(jī)器學(xué)習(xí)領(lǐng)域中的一項(xiàng)革新方向,致力于使機(jī)器學(xué)習(xí)技術(shù)更加貼近人工智能的終極目標(biāo)。通過(guò)深入學(xué)習(xí)和分析樣本數(shù)據(jù)中的內(nèi)在規(guī)律及其層級(jí)表示,深度學(xué)習(xí)極大地促進(jìn)了機(jī)器對(duì)語(yǔ)言、圖像、聲音等多種數(shù)據(jù)類(lèi)型的理解和處理能力。其核心目標(biāo)是賦予機(jī)器類(lèi)似于人類(lèi)的分析和學(xué)習(xí)能力,包括但不限于識(shí)別文本、圖像和聲音等。深度學(xué)習(xí)技術(shù)在語(yǔ)音識(shí)別和圖像處理方面取得了顯著成就,遠(yuǎn)超過(guò)之前的技術(shù)水平。此外,它在搜索引擎優(yōu)化、數(shù)據(jù)挖掘、機(jī)器翻譯、自然語(yǔ)言處理、多媒體教學(xué)、語(yǔ)音識(shí)別、個(gè)性化推薦系統(tǒng)等領(lǐng)域也展現(xiàn)出了巨大的應(yīng)用潛力和成效。通過(guò)模擬人類(lèi)的視覺(jué)、聽(tīng)覺(jué)和思維過(guò)程,深度學(xué)習(xí)解決了許多復(fù)雜的模式識(shí)別問(wèn)題,為人工智能技術(shù)的發(fā)展貢獻(xiàn)了重大進(jìn)步。深度學(xué)習(xí)的理論基礎(chǔ)來(lái)源于人工神經(jīng)網(wǎng)絡(luò)的研究,特別是包含多個(gè)隱藏層的多層感知器模型。這種結(jié)構(gòu)能夠?qū)⒑?jiǎn)單的底層特征組合成更高層次的抽象特征,揭示數(shù)據(jù)中的分布式特征表示。研究深度學(xué)習(xí)的初衷是為了構(gòu)建一種能夠模擬人腦進(jìn)行復(fù)雜分析和學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)系統(tǒng),它借鑒了人腦處理信息的機(jī)制,用于解釋和處理諸如圖像、聲音和文本等數(shù)據(jù)。深度學(xué)習(xí)還引入了諸如注意力機(jī)制、自編碼器、殘差網(wǎng)絡(luò)等高級(jí)特性,這些技術(shù)進(jìn)一步提高了深度學(xué)習(xí)模型的性能和效率。注意力機(jī)制模仿了人類(lèi)在處理信息時(shí)對(duì)關(guān)鍵部分的聚焦,增強(qiáng)了模型對(duì)重要信息的感知能力。自編碼器和殘差網(wǎng)絡(luò)等結(jié)構(gòu)則優(yōu)化了深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程,提升了學(xué)習(xí)效率和模型的泛化能力。從一個(gè)輸入中產(chǎn)生一個(gè)輸出所涉及的計(jì)算可以通過(guò)一個(gè)\t"/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/_blank"流向圖(flowgraph)來(lái)表示:流向圖是一種能夠表示計(jì)算的圖,在這種圖中每一個(gè)節(jié)點(diǎn)表示一個(gè)基本的計(jì)算以及一個(gè)計(jì)算的值,計(jì)算的結(jié)果被應(yīng)用到這個(gè)節(jié)點(diǎn)的子節(jié)點(diǎn)的值??紤]這樣一個(gè)計(jì)算集合,它可以被允許在每一個(gè)節(jié)點(diǎn)和可能的圖結(jié)構(gòu)中,并定義了一個(gè)函數(shù)族。輸入節(jié)點(diǎn)沒(méi)有父節(jié)點(diǎn),輸出節(jié)點(diǎn)沒(méi)有子節(jié)點(diǎn)。

這種流向圖的一個(gè)特別屬性是\t"/item/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0/_blank"深度:從一個(gè)輸入到一個(gè)輸出的最長(zhǎng)路徑的長(zhǎng)度。圖2-1含多個(gè)隱層的深度學(xué)習(xí)模型2006年,Hinton提出了在非監(jiān)督數(shù)據(jù)上建立多層神經(jīng)網(wǎng)絡(luò)的一個(gè)有效方法,具體分為兩步:首先逐層構(gòu)建單層神經(jīng)元,這樣每次都是訓(xùn)練一個(gè)單層網(wǎng)絡(luò);當(dāng)所有層訓(xùn)練完后,使用wake-sleep算法進(jìn)行調(diào)優(yōu)。

具體是將除最頂層的其他層間的權(quán)重變?yōu)殡p向的,這樣最頂層仍然是一個(gè)單層神經(jīng)網(wǎng)絡(luò),而其他層則變?yōu)榱藞D模型。向上的權(quán)重用于“認(rèn)知”,向下的權(quán)重用于“生成”。然后使用wake-sleep算法調(diào)整所有的權(quán)重。讓認(rèn)知和生成達(dá)成一致,也就是保證生成的最頂層表示能夠盡可能正確的復(fù)原底層的節(jié)點(diǎn)。比如頂層的一個(gè)節(jié)點(diǎn)表示人臉,那么所有人臉的圖像應(yīng)該激活這個(gè)節(jié)點(diǎn),并且這個(gè)結(jié)果向下生成的圖像應(yīng)該能夠表現(xiàn)為一個(gè)大概的人臉圖像。wake-sleep算法分為醒(wake)和睡(sleep)兩個(gè)部分。其中,wake階段為認(rèn)知過(guò)程,通過(guò)外界的特征和向上的權(quán)重產(chǎn)生每一層的抽象表示,并且使用梯度下降修改層間的下行權(quán)重。而sleep階段為生成過(guò)程,通過(guò)頂層表示和向下權(quán)重,生成底層的狀態(tài),同時(shí)修改層間向上的權(quán)重。卷積神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)(CNN)構(gòu)成了深度學(xué)習(xí)領(lǐng)域中的一種核心神經(jīng)網(wǎng)絡(luò)模型,其設(shè)計(jì)靈感來(lái)源于人類(lèi)的視覺(jué)系統(tǒng)。與傳統(tǒng)的圖像處理方法相比,CNN具有顯著的優(yōu)勢(shì),因?yàn)樗軌蛑苯訉⑽唇?jīng)處理的圖像用作輸入,自動(dòng)進(jìn)行特征抽取,省去了復(fù)雜的預(yù)處理和手動(dòng)特征提取過(guò)程。CNN的基礎(chǔ)架構(gòu)可以通過(guò)一個(gè)示意圖(如圖4-3所展示)進(jìn)行理解,它主要由四個(gè)部分組成:輸入層、卷積層、池化層以及輸出層。在這個(gè)網(wǎng)絡(luò)的最后階段,經(jīng)過(guò)一系列的卷積和池化操作處理的特征圖會(huì)被送入全連接層,這里它們被整合成一個(gè)一維的向量。這個(gè)向量包含了處理后圖像的關(guān)鍵信息,使得網(wǎng)絡(luò)能夠有效執(zhí)行圖像的識(shí)別和分類(lèi)任務(wù)。圖2-2卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)示意圖基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)是一種可行的方法。深度卷積神經(jīng)網(wǎng)絡(luò)在圖像處理和計(jì)算機(jī)視覺(jué)領(lǐng)域中已經(jīng)展現(xiàn)出了很好的性能,尤其是在處理大規(guī)模數(shù)據(jù)、解決高維特征問(wèn)題上,它具有很強(qiáng)的表征能力和泛化能力。在圖像修復(fù)中,深度卷積神經(jīng)網(wǎng)絡(luò)可以通過(guò)學(xué)習(xí)大量的圖像樣本,從而自動(dòng)提取并學(xué)習(xí)到圖像的結(jié)構(gòu)信息,進(jìn)而對(duì)損壞的圖像進(jìn)行修復(fù)。通過(guò)卷積操作和池化操作,深度卷積神經(jīng)網(wǎng)絡(luò)可以提取出圖像的空間信息特征和高層次抽象特征,以及對(duì)圖像中的噪聲和失真進(jìn)行有效的去除和優(yōu)化。目前已經(jīng)有很多基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)算法被提出并成功應(yīng)用于多種實(shí)際場(chǎng)景中,同時(shí),眾多的實(shí)驗(yàn)結(jié)果也表明,基于深度卷積神經(jīng)網(wǎng)絡(luò)的圖像修復(fù)方法可以獲得較好的修復(fù)效果和魯棒性。深度學(xué)習(xí)框架Python是一種高級(jí)編程語(yǔ)言,它在計(jì)算機(jī)編程領(lǐng)域具有廣泛的應(yīng)用。Python的設(shè)計(jì)哲學(xué)是“優(yōu)雅”、“明確”、“簡(jiǎn)單”,其語(yǔ)法簡(jiǎn)潔、易讀,使得Python編程容易上手,適合初學(xué)者入門(mén)。Python具有強(qiáng)大的數(shù)據(jù)處理和科學(xué)計(jì)算能力,支持多種編程范式(面向?qū)ο?、函?shù)式、命令式等),也有豐富的第三方庫(kù)和模塊,可用于開(kāi)發(fā)Web應(yīng)用、人工智能、機(jī)器學(xué)習(xí)、數(shù)據(jù)分析等多種領(lǐng)域。Python的開(kāi)源和跨平臺(tái)特性使得它在開(kāi)發(fā)過(guò)程中具有高度的靈活性和可移植性。同時(shí),Python擁有龐大的社區(qū),為開(kāi)發(fā)者提供了豐富的學(xué)習(xí)資料、代碼示例和支持??傊琍ython是一種非常流行和實(shí)用的編程語(yǔ)言,其語(yǔ)法簡(jiǎn)單、易學(xué)、功能強(qiáng)大,適合用于很多不同的編程任務(wù)。和Pyhton語(yǔ)言一起火爆的是AI深度學(xué)習(xí)框架,當(dāng)前,國(guó)內(nèi)外AI深度學(xué)習(xí)框架百花齊放,國(guó)外有PyTorch、PyTorch、CNTK,國(guó)內(nèi)有百度開(kāi)源的PyTorch,曠世科技的天元、OneFlow以及華為的AI平臺(tái),這都為園區(qū)人流量自動(dòng)檢測(cè)與應(yīng)用做了堅(jiān)實(shí)的鋪墊。圖2-3一些常見(jiàn)的深度學(xué)習(xí)框架基于生成對(duì)抗網(wǎng)絡(luò)的圖像修復(fù)方法生成對(duì)抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)技術(shù),由生成器和判別器兩部分組成。生成器的任務(wù)是從隨機(jī)噪聲中生成逼真的圖像,而判別器則需要判斷生成器生成的圖像是否真實(shí)。通過(guò)不斷的迭代訓(xùn)練,生成器可以生成越來(lái)越逼真的圖像,判別器也逐漸能夠分辨真假圖像。GAN已經(jīng)被廣泛應(yīng)用于圖像生成、轉(zhuǎn)換和修復(fù)等任務(wù)?;贕AN的圖像修復(fù)算法通常分為兩個(gè)階段:生成階段和修復(fù)階段。在生成階段,生成器會(huì)從隨機(jī)噪聲中生成一張逼真的圖像,并將其與原始圖像進(jìn)行融合。在修復(fù)階段,修復(fù)器會(huì)基于圖像的上下文信息繼續(xù)完善修復(fù)圖像。生成階段在生成階段中,生成器通過(guò)學(xué)習(xí)樣本數(shù)據(jù)集中的圖像特征,生成一張逼真的圖像。生成器通常是基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)實(shí)現(xiàn)的,并采用反卷積層來(lái)從噪聲中生成圖像。生成器需要優(yōu)化損失函數(shù)以最小化真假圖像之間的差距,使生成器能夠生成更逼真的圖像。為了提高生成圖像的真實(shí)性,生成器的訓(xùn)練過(guò)程中需要細(xì)致地優(yōu)化損失函數(shù),這通常包括但不限于像素級(jí)的損失和特征級(jí)的損失。像素級(jí)損失如L1或L2損失,直接衡量生成圖像與真實(shí)圖像在像素值上的差異;而特征級(jí)損失,如感知損失(PerceptualLoss),則是通過(guò)預(yù)訓(xùn)練的深度網(wǎng)絡(luò)提取特征,比較生成圖像與真實(shí)圖像在更高層次的特征表示上的差異,從而引導(dǎo)生成器產(chǎn)生在視覺(jué)上更接近真實(shí)圖像的結(jié)果。此外,為了進(jìn)一步增強(qiáng)生成圖像的真實(shí)性,可以采用生成對(duì)抗網(wǎng)絡(luò)(GAN)的框架,在此框架中,生成器與一個(gè)判別器相互競(jìng)爭(zhēng):生成器嘗試生成盡可能逼真的圖像,而判別器則努力區(qū)分生成的圖像與真實(shí)的圖像。這種設(shè)置不僅迫使生成器生成更高質(zhì)量的圖像,同時(shí)也使得生成的圖像在視覺(jué)上更加難以被區(qū)分出來(lái)。通過(guò)這種對(duì)抗訓(xùn)練過(guò)程,生成器學(xué)會(huì)捕捉到人類(lèi)視覺(jué)系統(tǒng)所關(guān)注的細(xì)節(jié)特征,從而產(chǎn)生更加精細(xì)、更具有真實(shí)感的圖像。這種方法極大地提升了機(jī)器生成圖像的質(zhì)量,推動(dòng)了計(jì)算機(jī)視覺(jué)領(lǐng)域的發(fā)展。修復(fù)階段在修復(fù)階段中,修復(fù)器會(huì)基于圖像的上下文信息繼續(xù)完善修復(fù)圖像。修復(fù)器通常是基于CNN實(shí)現(xiàn)的,通過(guò)卷積層、池化層和反卷積層等操作,對(duì)生成器生成的圖像進(jìn)行修復(fù)和完善。修復(fù)器也需要優(yōu)化損失函數(shù)以最小化修復(fù)圖像和原始圖像之間的差距,使修復(fù)圖像盡可能接近原始圖像。為了達(dá)到盡可能使修復(fù)后的圖像接近原始圖像的目標(biāo),修復(fù)器還需對(duì)損失函數(shù)進(jìn)行優(yōu)化。損失函數(shù)衡量的是修復(fù)圖像與原始圖像之間的差異大小,常見(jiàn)的損失函數(shù)包括均方誤差(MSE)和結(jié)構(gòu)相似性(SSIM)指數(shù)等。MSE關(guān)注像素級(jí)的差異,而SSIM則更側(cè)重于評(píng)估圖像的視覺(jué)效果,包括亮度、對(duì)比度和結(jié)構(gòu)等方面的相似度。在實(shí)際應(yīng)用中,修復(fù)器不僅依靠單一的損失函數(shù),而是結(jié)合多種損失函數(shù)來(lái)綜合評(píng)估修復(fù)效果。此外,引入如深度特征一致性損失,可以進(jìn)一步確保修復(fù)圖像在特征層面與原圖保持一致性,特別是在復(fù)雜或細(xì)節(jié)豐富的圖像區(qū)域。高級(jí)的修復(fù)技術(shù),如生成對(duì)抗網(wǎng)絡(luò)(GAN),還可能被應(yīng)用于修復(fù)過(guò)程中,其中判別器的角色是評(píng)估修復(fù)圖像的真實(shí)性。通過(guò)這種方式,修復(fù)器不僅著眼于減少修復(fù)圖像和原圖之間的直接差異,還努力提高修復(fù)圖像的自然度和真實(shí)感,以至于對(duì)于人眼和判別器來(lái)說(shuō)都難以區(qū)分修復(fù)圖像與原始圖像之間的區(qū)別。這種方法使得圖像修復(fù)技術(shù)在保持圖像真實(shí)性的同時(shí),也大大提高了修復(fù)圖像的質(zhì)量和自然度。全局-局部一致的圖像修復(fù)系統(tǒng)設(shè)計(jì)網(wǎng)絡(luò)整體結(jié)構(gòu)本研究開(kāi)發(fā)的圖像修復(fù)框架借鑒了生成對(duì)抗網(wǎng)絡(luò)(GAN)的核心理念,設(shè)計(jì)為一個(gè)包含圖像修復(fù)和圖像評(píng)估兩大功能部件的綜合體系。此框架涵蓋了三個(gè)互相協(xié)作的子網(wǎng)絡(luò):修復(fù)網(wǎng)絡(luò)(CompletionNetwork)負(fù)責(zé)對(duì)輸入的破損圖像進(jìn)行內(nèi)容推斷和填充,以實(shí)現(xiàn)對(duì)丟失區(qū)域的重建;全局判別器(GlobalDiscriminator)對(duì)整個(gè)圖像進(jìn)行評(píng)估,判斷修復(fù)后的圖像與原圖之間的一致性,重點(diǎn)評(píng)價(jià)上下文連貫性;局部判別器(LocalDiscriminator)專(zhuān)注于修復(fù)區(qū)域的細(xì)節(jié)處理,確保重建紋理的準(zhǔn)確性和清晰度。系統(tǒng)的整體結(jié)構(gòu)配置將在圖3-1中展示,并在隨后的第四章詳細(xì)闡述具體的實(shí)現(xiàn)策略及技術(shù)細(xì)節(jié)。此框架的設(shè)計(jì)旨在通過(guò)深度學(xué)習(xí)技術(shù)的應(yīng)用,不僅恢復(fù)圖像的視覺(jué)完整性,同時(shí)確保重建內(nèi)容在視覺(jué)和語(yǔ)義上與原始圖像保持高度一致。通過(guò)這種全局與局部信息的綜合考量,本系統(tǒng)能夠在細(xì)節(jié)和整體上都實(shí)現(xiàn)高質(zhì)量的圖像修復(fù),進(jìn)而推動(dòng)深度學(xué)習(xí)在圖像處理領(lǐng)域的應(yīng)用深化。圖STYLEREF1\s3SEQ圖\*ARABIC\s11全局-局部一致的圖像修復(fù)系統(tǒng)網(wǎng)絡(luò)結(jié)構(gòu)圖像修復(fù)網(wǎng)絡(luò)本研究所采用的圖像修復(fù)網(wǎng)絡(luò)基于全卷積神經(jīng)網(wǎng)絡(luò)(FullyConvolutionalNetworks,FCN)構(gòu)建,通過(guò)替換傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)(CNN)中的終端全連接層為卷積層,實(shí)現(xiàn)了參數(shù)量的顯著減少及去除了對(duì)輸入圖像尺寸的限制,允許網(wǎng)絡(luò)處理任意分辨率的圖像輸入。網(wǎng)絡(luò)通過(guò)全局使用整流線(xiàn)性單元(ReLU)激活函數(shù)增強(qiáng)非線(xiàn)性處理能力,并在網(wǎng)絡(luò)輸出層引入Sigmoid函數(shù),確保輸出值落在[0,1]區(qū)間內(nèi),適應(yīng)圖像像素值的標(biāo)準(zhǔn)范圍。修復(fù)流程細(xì)節(jié):輸入階段:網(wǎng)絡(luò)接受一個(gè)四通道的復(fù)合圖像作為輸入,這包括常規(guī)的RGB三通道以及一個(gè)單通道二進(jìn)制掩膜,后者標(biāo)識(shí)圖像中的損壞區(qū)域。損壞區(qū)域的像素值會(huì)被置換為網(wǎng)絡(luò)訓(xùn)練過(guò)程中學(xué)習(xí)到的平均像素值,而非損壞區(qū)域則保留其原始像素值,以維持圖像內(nèi)容的原貌。特征提?。弘S后,網(wǎng)絡(luò)對(duì)輸入圖像執(zhí)行卷積和空洞卷積操作,用于提取圖像特征。通過(guò)應(yīng)用2×2步長(zhǎng)的卷積操作兩次,網(wǎng)絡(luò)將圖像尺寸減小至原始尺寸的1/4,這一操作不僅減少了處理的復(fù)雜度,還有助于在損壞區(qū)域生成更加清晰、細(xì)致的紋理。特征圖重構(gòu):之后,網(wǎng)絡(luò)通過(guò)反卷積操作逐步恢復(fù)特征圖的尺寸,直至回復(fù)至RGB三通道的原始圖像分辨率,從而完成對(duì)損壞區(qū)域的修復(fù)。輸出修復(fù)結(jié)果:最終,網(wǎng)絡(luò)輸出一個(gè)無(wú)損壞的圖像作為修復(fù)結(jié)果,此圖像在視覺(jué)上與原始圖像無(wú)異,損壞部分得到有效且自然的重建。圖像修復(fù)網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計(jì)如圖3-2所展示,旨在通過(guò)深度學(xué)習(xí)技術(shù)實(shí)現(xiàn)對(duì)破損圖像的高質(zhì)量修復(fù),同時(shí)保持圖像修復(fù)過(guò)程的高效性與準(zhǔn)確度。圖STYLEREF1\s3SEQ圖\*ARABIC\s12修復(fù)網(wǎng)絡(luò)結(jié)構(gòu)在本模型的圖像修復(fù)策略中,深層網(wǎng)絡(luò)的感知能力對(duì)于細(xì)致和準(zhǔn)確的內(nèi)容重建至關(guān)重要。傳統(tǒng)的卷積操作雖然能夠提取圖像的局部特征,但其固有的局限性在于感受野的大小直接受限于卷積核的尺寸和網(wǎng)絡(luò)的深度。為了克服這一挑戰(zhàn),本研究采用了空洞卷積(DilatedConvolution)技術(shù)替代標(biāo)準(zhǔn)池化操作,此舉的目的是為了在不損失分辨率的前提下,擴(kuò)展模型的感受野,從而使網(wǎng)絡(luò)能夠捕獲并利用更廣泛的上下文信息來(lái)進(jìn)行更加精確的圖像修復(fù)??斩淳矸e通過(guò)引入額外的空間間隔(即空洞)到卷積核中,使得網(wǎng)絡(luò)在不增加額外計(jì)算負(fù)擔(dān)的情況下,能夠覆蓋更廣闊的輸入?yún)^(qū)域。這種方法有效地彌補(bǔ)了傳統(tǒng)池化層可能導(dǎo)致的信息丟失問(wèn)題,使得網(wǎng)絡(luò)在進(jìn)行圖像語(yǔ)義分割和修復(fù)時(shí)能夠保持更多的細(xì)節(jié)信息。具體來(lái)說(shuō),在實(shí)施標(biāo)準(zhǔn)卷積過(guò)程中,通過(guò)一個(gè)固定的感受野(如Ω1)提取特征時(shí),僅能捕捉到有限的局部信息,這在處理圖像中損壞(缺失)部分時(shí)尤為明顯,因?yàn)閾p壞區(qū)域內(nèi)部的信息是不完整的,導(dǎo)致無(wú)法準(zhǔn)確重建(如像素P2的情況)。而通過(guò)應(yīng)用空洞卷積,感受野(如Ω2)得以顯著擴(kuò)大,即便是在損壞區(qū)域內(nèi)部也能夠通過(guò)捕捉周?chē)暾麉^(qū)域的信息來(lái)實(shí)現(xiàn)有效的內(nèi)容預(yù)測(cè)和修復(fù),從而保證了修復(fù)后像素(比如P2)的準(zhǔn)確生成。此技術(shù)的應(yīng)用不僅提升了模型對(duì)圖像全局結(jié)構(gòu)和局部細(xì)節(jié)的理解能力,還促進(jìn)了修復(fù)質(zhì)量的顯著提升,如圖3-3所示,通過(guò)比較兩種卷積技術(shù)的感受野差異,可以直觀地理解空洞卷積在擴(kuò)展感受野和提升修復(fù)效果方面的優(yōu)勢(shì)。圖STYLEREF1\s3SEQ圖\*ARABIC\s13普通卷積與空洞卷積感受野大小對(duì)比圖像判別網(wǎng)絡(luò)在本研究的圖像修復(fù)框架中,判別網(wǎng)絡(luò)是通過(guò)全局和局部?jī)蓚€(gè)并行運(yùn)作的卷積神經(jīng)網(wǎng)絡(luò)(CNN)構(gòu)成,旨在評(píng)估修復(fù)網(wǎng)絡(luò)輸出的圖像相對(duì)于原始圖像的一致性,以及其真實(shí)性的判斷。這一機(jī)制致力于輔助優(yōu)化修復(fù)過(guò)程,確保生成的圖像在視覺(jué)上與原始圖像無(wú)可辨別差異。全局與局部判別網(wǎng)絡(luò)全局判別器:接收與原始樣本相同尺寸的完整圖像作為輸入,目的是評(píng)估修復(fù)圖像整體的真實(shí)性和一致性。全局視角有助于捕捉圖像的整體結(jié)構(gòu)和布局,以及修復(fù)區(qū)域與未損區(qū)域之間的和諧度。局部判別器:專(zhuān)注于修復(fù)部分及其周邊區(qū)域,輸入尺寸較小,集中于評(píng)估修復(fù)質(zhì)量在局部細(xì)節(jié)上的表現(xiàn)。這一策略確保了修復(fù)區(qū)域的細(xì)節(jié)處理符合原有圖像的紋理和樣式,強(qiáng)化了修復(fù)的局部逼真度。判別網(wǎng)絡(luò)操作流程兩種判別器均基于深層卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),通過(guò)序列化的卷積層處理輸入圖像,每一層采用2×2的步長(zhǎng)減半圖像尺寸,同時(shí)提取越來(lái)越高級(jí)的特征表示。整流線(xiàn)性單元(ReLU)函數(shù)負(fù)責(zé)每層后的非線(xiàn)性激活,增強(qiáng)模型的表達(dá)能力。經(jīng)過(guò)多層卷積后,圖像特征被壓縮成高維特征向量,并通過(guò)全連接層匯總成一個(gè)一維向量。最終,采用Sigmoid激活函數(shù)將輸出值規(guī)約在[0,1]區(qū)間內(nèi),表示圖像為真實(shí)圖像的概率,從而完成真實(shí)性的評(píng)估。該雙重判別網(wǎng)絡(luò)結(jié)構(gòu)如圖3-4所示,通過(guò)綜合全局與局部視角的判別結(jié)果,本框架能夠更精準(zhǔn)地指導(dǎo)修復(fù)網(wǎng)絡(luò)的訓(xùn)練,優(yōu)化生成圖像的真實(shí)感和細(xì)節(jié)表現(xiàn),實(shí)現(xiàn)在視覺(jué)上更加無(wú)縫和自然的圖像修復(fù)效果。圖STYLEREF1\s3SEQ圖\*ARABIC\s14判別網(wǎng)絡(luò)結(jié)構(gòu)損失函數(shù)損失函數(shù)在評(píng)估圖像修復(fù)網(wǎng)絡(luò)的性能中扮演著核心角色,其設(shè)計(jì)目的是量化修復(fù)后的圖像與原始圖像之間的差異性。理想狀態(tài)下,隨著訓(xùn)練過(guò)程的進(jìn)行,希望通過(guò)最小化損失函數(shù)的值來(lái)促進(jìn)修復(fù)結(jié)果趨近于原始圖像。在實(shí)施圖像修復(fù)任務(wù)中,選擇合適的重構(gòu)損失函數(shù)對(duì)于引導(dǎo)模型學(xué)習(xí)過(guò)程至關(guān)重要。通??紤]兩類(lèi)損失函數(shù):平均絕對(duì)誤差(MeanAbsoluteError,MAE)和均方誤差(MeanSquaredError,MSE)。平均絕對(duì)誤差(MAE):MAE測(cè)量的是修復(fù)圖像與原始圖像像素值差的絕對(duì)值的平均,雖然這種方法在數(shù)值上能夠提供關(guān)于誤差的直接估計(jì),但可能不足以精準(zhǔn)捕捉人類(lèi)視覺(jué)系統(tǒng)對(duì)圖像質(zhì)量感知的細(xì)微差別。均方誤差(MSE):本研究采用的是MSE作為主要的重構(gòu)損失函數(shù),它計(jì)算的是修復(fù)圖像與原始圖像像素值差的平方和的平均值。MSE對(duì)較大的誤差賦予了更高的懲罰,這有助于模型在訓(xùn)練過(guò)程中更加注重減少大的預(yù)測(cè)誤差,因此,MSE在訓(xùn)練穩(wěn)定性和視覺(jué)感知相似度方面,相對(duì)于MAE而言,能夠更好地與人眼對(duì)圖像質(zhì)量的評(píng)估相吻合。本文算法中主要使用兩個(gè)損失函數(shù),分別是重構(gòu)損失函數(shù)MSE與GAN損失函數(shù)。MSE用于計(jì)算原圖與生成圖像像素之間誤差的平方和,從而衡量二者差異,能夠保證訓(xùn)練更加穩(wěn)定,相較于MAE,生成出的結(jié)果與人眼所得的感受更加相近,其表達(dá)式如公式4所示:L其中C(x,Mc)為修復(fù)網(wǎng)絡(luò)表示的函數(shù),x為輸入的圖片,Mc為需要被補(bǔ)全部分的掩碼,大小和x相同,其中以1表示缺失區(qū)域,0表示非缺失區(qū)域。GAN損失即判別網(wǎng)絡(luò)的損失,能夠提升結(jié)果的真實(shí)性,在算法的訓(xùn)練中至關(guān)重要,將神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)優(yōu)化問(wèn)題轉(zhuǎn)換為極小—極大優(yōu)化問(wèn)題。與修復(fù)網(wǎng)絡(luò)函數(shù)相似,我們用Md表示判別器中的隨機(jī)掩膜,則D(x,Md)代表兩個(gè)判別網(wǎng)絡(luò),所得對(duì)抗式損失的表達(dá)式如公式5所示:min進(jìn)行聯(lián)合訓(xùn)練的優(yōu)化函數(shù)是MSE函數(shù)與GAN的損失函數(shù)的結(jié)合,用來(lái)提升生成結(jié)果的真實(shí)性,基本杜絕了只有MSE損失時(shí)出現(xiàn)的模糊不清的狀況,表達(dá)式如公式6所示:min其中L、α為MSE損失與GAN損失的權(quán)重。訓(xùn)練算法流程本文使用的訓(xùn)練算法共包括兩個(gè)階段,第一階段只迭代MSE損失,在訓(xùn)練的初期階段,焦點(diǎn)集中于最小化均方誤差(MSE)損失,此階段目的是提升圖像修復(fù)網(wǎng)絡(luò)的基本能力,確保其可以在不引入顯著視覺(jué)差異的情況下,對(duì)損壞的圖像進(jìn)行有效的修復(fù)。通過(guò)這種方式,修復(fù)網(wǎng)絡(luò)學(xué)習(xí)到如何生成視覺(jué)上接近于原圖的修復(fù)結(jié)果,以至于足以“欺騙”后續(xù)訓(xùn)練階段中的判別網(wǎng)絡(luò),使其難以區(qū)分修復(fù)圖像與原始圖像。隨后的訓(xùn)練進(jìn)入第二階段,此時(shí)引入了對(duì)抗式損失,與重構(gòu)損失(MSE)共同構(gòu)成訓(xùn)練目標(biāo)。在這一階段,修復(fù)網(wǎng)絡(luò)與判別網(wǎng)絡(luò)進(jìn)行聯(lián)合訓(xùn)練,形成了一種對(duì)抗機(jī)制:修復(fù)網(wǎng)絡(luò)致力于生成更加逼真的圖像以“欺騙”判別網(wǎng)絡(luò),而判別網(wǎng)絡(luò)則努力辨別圖像是直接來(lái)自于原始數(shù)據(jù)集還是由修復(fù)網(wǎng)絡(luò)生成。該過(guò)程不僅進(jìn)一步提升了修復(fù)網(wǎng)絡(luò)生成圖像的真實(shí)性,也優(yōu)化了判別網(wǎng)絡(luò)的鑒別能力,從而實(shí)現(xiàn)更精準(zhǔn)的圖像真實(shí)性評(píng)估。全局-局部一致的圖像修復(fù)系統(tǒng)具體實(shí)現(xiàn)環(huán)境配置Python介紹及安裝Python語(yǔ)法設(shè)計(jì)清晰明了,便于學(xué)習(xí),是TensorFlow的主要編寫(xiě)語(yǔ)言REF_Ref135089751\r\h[24]。Python語(yǔ)言如同一種粘合劑,可以將各種使用不同語(yǔ)言的程序拼接到一起,從而適應(yīng)不同領(lǐng)域的要求。當(dāng)前Python官方網(wǎng)站中發(fā)行的版本大概分為Python2.x及Python3.x,而兩個(gè)版本之間并不能互相兼容,即無(wú)法在Python3的解釋器中運(yùn)行Python2語(yǔ)法所編寫(xiě)的程序。Python的包中還存在許多第三方包,若一個(gè)使用了第三方包的Python程序在另一個(gè)沒(méi)有安裝此包的環(huán)境中運(yùn)行,則會(huì)造成運(yùn)行失敗。那么我們可以借助Anaconda解決這些問(wèn)題,關(guān)于其介紹及安裝將在4.1.2中描述。Python的安裝過(guò)程十分容易,只需找到Python官方網(wǎng)站的下載中心(https:///downloads/windows/),在其中選擇自己所需的版本進(jìn)行下載及安裝即可。本次系統(tǒng)設(shè)計(jì)所使用的Python版本為Python3.7.4,其版本查看方式如REF_Ref132840335\h圖41所示。圖STYLEREF1\s4SEQ圖\*ARABIC\s11查看Python安裝版本TensorFlow介紹及安裝TensorFlow是一個(gè)通過(guò)圖的形式來(lái)展示運(yùn)算過(guò)程的開(kāi)源軟件庫(kù),是較為主流深度學(xué)習(xí)框架。不僅可以支持神經(jīng)網(wǎng)絡(luò),又十分廣泛的支持其他機(jī)器學(xué)習(xí)相關(guān)算法,比如決策樹(shù)、向量積等等,還可以兼容包括Python、Java在內(nèi)的多種編程語(yǔ)言。其計(jì)算可以使用的硬件包括中央處理器及圖像處理器,此外,谷歌又發(fā)明了TPU,作為T(mén)ensorFlow的專(zhuān)屬處理器,可以放在移動(dòng)平臺(tái)上支持移動(dòng)端的應(yīng)用。此外,TensorFlow提供了不同層次的接口,從低層易控制到高層易用,可供靈活選擇。最簡(jiǎn)單直接的CPU版本的安裝方法是在AnacondaPrompt中,輸入命令“pipinstalltensorflow”,此命令是為當(dāng)前默認(rèn)環(huán)境安裝TensorFlow,若安裝了多個(gè)版本Python,則需事先進(jìn)行指定。安裝成功后可在AnacondaPrompt中進(jìn)行測(cè)試,首先進(jìn)入Python環(huán)境,接著輸入:importtensorflowastfsess=tf.Session()a=tf.constant(8)b=tf.constant(9)sess.run(a+b)若能得到輸出結(jié)果為17,則表示TensorFlow已經(jīng)可以正常使用。PyDev介紹與安裝本文選用Eclipse開(kāi)發(fā)環(huán)境來(lái)進(jìn)行系統(tǒng)設(shè)計(jì),這是一個(gè)開(kāi)源的可擴(kuò)展平臺(tái),功能齊全,便于操作。雖然Eclipse的開(kāi)發(fā)語(yǔ)言為Java,但在其上所可使用的并不只有Java,還可支持包括Python、C/C++、Android等多種開(kāi)發(fā)。本文所使用的PyDev即為一個(gè)功能健全的Eclipse插件,用戶(hù)可以通過(guò)它在Eclipse來(lái)運(yùn)行基于Python語(yǔ)言的設(shè)計(jì)程序。PyDev能夠進(jìn)行編譯調(diào)試、語(yǔ)法糾正,可輔助用戶(hù)便利地進(jìn)行源程序的編輯,以及更多種高效常用的功能。在已經(jīng)配置好JavaJDK及Eclipse的前提下,即可對(duì)PyDev進(jìn)行安裝。因官網(wǎng)安裝速度較慢,本文是通過(guò)離線(xiàn)安裝包的方式對(duì)PyDev進(jìn)行下載,安裝包地址為:http:///s/1pJ1HQKb。在Eclipse的安裝目錄下找到命名為features的目錄,并將安裝包中下載好的features文件夾加入其中,同樣找到plugins文件夾,將其加入plugins目錄即可安裝成功。將PyDev在Eclipse中配置完成后,即可成功使用Python的開(kāi)發(fā)環(huán)境,編寫(xiě)Python程序。在Eclipse中新建Python項(xiàng)目的操作如REF_Ref132891957\h圖43所示。圖STYLEREF1\s4SEQ圖\*ARABIC\s13在Eclipse中新建Python項(xiàng)目Anaconda介紹及安裝Anaconda作為一個(gè)開(kāi)放源代碼,可支持包括Windows在內(nèi)的三種操作系統(tǒng),它相當(dāng)于Python的“全家桶”,集成了許多經(jīng)常應(yīng)用到的數(shù)據(jù)科學(xué)的第三方包及其依賴(lài)項(xiàng)。使用Anaconda可以對(duì)第三方包以及運(yùn)行環(huán)境進(jìn)行很好的管理,使我們?cè)诎惭b、使用或卸載各種包時(shí)更加便捷,在進(jìn)行不同版本Python的切換使用時(shí)也能夠避免錯(cuò)誤和混亂的出現(xiàn),解決版本不兼容的問(wèn)題。在Anaconda的官網(wǎng)(https://)中選擇3版本進(jìn)行下載,因2版本目前已經(jīng)不再使用,本次系統(tǒng)設(shè)計(jì)所需版本為Anaconda3.7。下載成功后即可進(jìn)行簡(jiǎn)單的逐步安裝,其環(huán)境變量等皆可根據(jù)默認(rèn)配置完成。若安裝速度過(guò)慢也可選擇國(guó)內(nèi)的鏡像源網(wǎng)站,這里可提供一個(gè)鏡像網(wǎng)站作為參考:https:///anaconda/miniconda/。安裝成功的Anaconda界面如REF_Ref132841997\h圖42所示。圖STYLEREF1\s4SEQ圖\*ARABIC\s12Anaconda主界面準(zhǔn)備數(shù)據(jù)集數(shù)據(jù)集x_test.npy是用來(lái)進(jìn)行測(cè)試的,x_train.npy是用來(lái)訓(xùn)練的圖STYLEREF1\s4SEQ圖\*ARABIC\s14數(shù)據(jù)集數(shù)據(jù)集引入將數(shù)據(jù)集存入本地,并通過(guò)如下代碼引入數(shù)據(jù)集:defload(dir_='../data/npy'):x_train=np.load(os.path.join(dir_,'x_train.npy'))x_test=np.load(os.path.join(dir_,'x_test.npy'))returnx_train,x_test接著對(duì)數(shù)據(jù)集進(jìn)行歸一化。print(x_train.shape)x_train=np.array([a/127.5-1forainx_train])print(x_train[0])x_test=np.array([a/127.5-1forainx_test])遍歷x_train和x_test中的每一個(gè)元素(這里假設(shè)每個(gè)元素代表一張圖像),將每個(gè)像素值除以127.5然后減去1。這是一種常見(jiàn)的數(shù)據(jù)預(yù)處理方法,稱(chēng)為歸一化。這里歸一化的目的是將像素值從[0,255]映射到[-1,1]范圍內(nèi),這有助于模型訓(xùn)練的穩(wěn)定性和效率。網(wǎng)絡(luò)實(shí)現(xiàn)修復(fù)網(wǎng)絡(luò)構(gòu)建修復(fù)網(wǎng)絡(luò)基于全卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn),構(gòu)建修復(fù)網(wǎng)絡(luò)時(shí)所設(shè)計(jì)的具體參數(shù)如REF_Ref133417424\h表41所示。表STYLEREF1\s4SEQ表\*ARABIC\s11修復(fù)網(wǎng)絡(luò)參數(shù)操作類(lèi)型卷積核擴(kuò)張率步長(zhǎng)輸出尺寸卷積5511164卷積33122128卷積33111128卷積33122256卷積33111256卷積33111256空洞卷積33211256空洞卷積33411256空洞卷積33811256空洞卷積331611256卷積33111256卷積33111256反卷積4411/21/2128卷積33111128反卷積4411/21/264卷積3311132卷積331113以self.generator函數(shù)構(gòu)建圖像修復(fù)網(wǎng)絡(luò),將x*(1-mask)作為輸入,實(shí)現(xiàn)將圖像“挖洞”的操作,使得圖像中非洞位置保持為1,空白位置為0。使用卷積層將圖像的分辨率降低為原來(lái)的兩倍,并通過(guò)卷積使大小變?yōu)樵紙D像的1/4,有助于在破損部分生成非模糊的紋理。接著增大擴(kuò)張率,即指定空洞率,在中間層的卷積核中插入空洞,并以0填充,從而獲取圖像更多的語(yǔ)境。最后通過(guò)反卷積將分辨率恢復(fù)至原始大小,反卷積層由更小步長(zhǎng)的卷積層組成。修復(fù)網(wǎng)絡(luò)的主要實(shí)現(xiàn)代碼如下:defgenerator(self,x,is_training):withtf.variable_scope('generator'):withtf.variable_scope('conv1'):#卷積x=conv_layer(x,[5,5,3,64],1)x=batch_normalize(x,is_training)x=tf.nn.relu(x)....withtf.variable_scope('dilated1'):#空洞卷積x=dilated_conv_layer(x,[3,3,256,256],2)x=batch_normalize(x,is_training)x=tf.nn.relu(x)....withtf.variable_scope('deconv1'):#反卷積x=deconv_layer(x,[4,4,128,256],[self.batch_size,64,64,128],2)x=batch_normalize(x,is_training)x=tf.nn.relu(x)....returnx通過(guò)執(zhí)行g(shù)enerator函數(shù),我們獲得了一個(gè)完整的圖像,其中包括了對(duì)空缺區(qū)域的填補(bǔ)。然而,值得注意的是,生成的圖像self.imitation并非僅針對(duì)損壞部分進(jìn)行修復(fù);相反,它影響了整個(gè)圖像的像素值,導(dǎo)致全圖范圍內(nèi)的數(shù)值發(fā)生變化。若我們的目標(biāo)是僅對(duì)損壞區(qū)域進(jìn)行修補(bǔ),同時(shí)保持圖像其余部分的原始像素值不變,那么就需要對(duì)修復(fù)結(jié)果進(jìn)行后處理。具體而言,這涉及到對(duì)生成的圖像進(jìn)行區(qū)域切割,精確提取出修復(fù)區(qū)域,并將這一部分與原始圖像中未受損的部分進(jìn)行精細(xì)拼接,以此構(gòu)成最終的修復(fù)成果pletion。這一步驟確保了僅對(duì)需要修復(fù)的區(qū)域進(jìn)行干預(yù),而保留了圖像其他部分的真實(shí)性。具體實(shí)現(xiàn)如下:pletion=self.imitation*mask+x*(1-mask)判別網(wǎng)絡(luò)構(gòu)建在本研究框架中,我們?cè)O(shè)計(jì)了全局和局部?jī)煞N判別網(wǎng)絡(luò),它們?cè)诩軜?gòu)上具有相似性,但各自針對(duì)不同的判別目標(biāo)。局部判別器專(zhuān)注于64×64像素的RGB圖像片段,通過(guò)四層卷積處理后,圖像特征被壓縮成一個(gè)1024維的特征向量。這一過(guò)程旨在捕捉圖像局部區(qū)域的詳細(xì)特征,以準(zhǔn)確評(píng)估修復(fù)質(zhì)量。相較之下,全局判別器處理的是經(jīng)過(guò)調(diào)整尺寸至128×128像素的完整圖像??紤]到更高的分辨率和更廣泛的視野,全局判別器在其網(wǎng)絡(luò)結(jié)構(gòu)中額外增加了一層卷積處理,總共通過(guò)五層卷積提取全局特征,同樣經(jīng)過(guò)全連接層后得到一個(gè)1024維的特征向量。這樣的設(shè)計(jì)使得全局判別器能夠有效評(píng)估整體圖像的一致性和真實(shí)感,確保修復(fù)結(jié)果在全局視角下的準(zhǔn)確性和自然度。全局和局部判別器的詳細(xì)網(wǎng)絡(luò)參數(shù)配置將在隨后的表格中呈現(xiàn)(如REF_Ref133491511\h表42、REF_Ref133491513\h表43所示),以便提供清晰的網(wǎng)絡(luò)結(jié)構(gòu)概覽。這一雙重判別網(wǎng)絡(luò)策略確保了從細(xì)節(jié)到整體的全方位質(zhì)量控制,為實(shí)現(xiàn)高質(zhì)量的圖像修復(fù)提供了強(qiáng)有力的技術(shù)支持。表STYLEREF1\s4SEQ表\*ARABIC\s12全局判別網(wǎng)絡(luò)參數(shù)操作類(lèi)型卷積核步長(zhǎng)輸出尺寸卷積552264卷積5522128卷積5522256卷積5522512卷積5522512全連接--1024表STYLEREF1\s4SEQ表\*ARABIC\s13局部判別網(wǎng)絡(luò)參數(shù)操作類(lèi)型卷積核步長(zhǎng)輸出尺寸卷積552264卷積5522128卷積5522256卷積5522512全連接--1024局部判別網(wǎng)絡(luò)相較于全局判別網(wǎng)絡(luò)少一層卷積,其余網(wǎng)絡(luò)結(jié)構(gòu)與實(shí)現(xiàn)方式相似,故不在此展示其具體代碼。全局判別網(wǎng)絡(luò)的主要實(shí)現(xiàn)代碼如下:defglobal_discriminator(x):is_training=tf.constant(True)withtf.variable_scope('global'):withtf.variable_scope('conv1'):x=conv_layer(x,[5,5,3,64],2)x=batch_normalize(x,is_training)x=tf.nn.relu(x)....withtf.variable_scope('fc'):x=flatten_layer(x)x=full_connection_layer(x,1024)returnx隨后在全連接層利用TensorFlow中的concat()函數(shù)將這兩個(gè)判別器的輸出矩陣拼接為2048維的向量,最后使用Sigmoid函數(shù),將所得的結(jié)果規(guī)定與0到1范圍內(nèi),得到是否為真實(shí)圖像還是修復(fù)圖像的概率值,全連接層參數(shù)如REF_Ref133500219\h表44所示。表STYLEREF1\s4SEQ表\*ARABIC\s14全連接層參數(shù)操作類(lèi)型卷積核步長(zhǎng)輸出尺寸卷積--2048全連接--1全連接層的具體實(shí)現(xiàn)代碼如下:output=tf.concat((global_output,local_output),1)output=full_connection_layer(output,1)損失函數(shù)實(shí)現(xiàn)在本研究中,圖像修復(fù)網(wǎng)絡(luò)采用了L2范數(shù)誤差,亦稱(chēng)為均方誤差(MSE),作為其主要的損失函數(shù)。該損失函數(shù)通過(guò)計(jì)算輸入樣本與修復(fù)網(wǎng)絡(luò)輸出之間每個(gè)像素點(diǎn)的差值的平方和的平均值,以量化修復(fù)圖像與原始圖像之間的偏差。理論上,MSE的值越接近于零,表明修復(fù)結(jié)果與原圖之間的相似度越高,差異越小,從而指示了修復(fù)網(wǎng)絡(luò)在重建圖像方面的準(zhǔn)確性和效果。具體實(shí)現(xiàn)代碼如下:defcalc_g_loss(self,x,completion):loss=tf.nn.l2_loss(x-completion)returntf.reduce_mean(loss)在本研究框架內(nèi),判別網(wǎng)絡(luò)的損失函數(shù)被設(shè)計(jì)為處理一個(gè)典型的二元分類(lèi)任務(wù)。具體來(lái)說(shuō),當(dāng)判別網(wǎng)絡(luò)接收到一個(gè)真實(shí)的圖像樣本時(shí),它通過(guò)計(jì)算交叉熵?fù)p失來(lái)衡量該樣本預(yù)測(cè)為真實(shí)(標(biāo)簽為1)的偏差。相反,當(dāng)輸入為由修復(fù)網(wǎng)絡(luò)生成的圖像時(shí),同樣采用交叉熵?fù)p失來(lái)評(píng)估該樣本被正確識(shí)別為生成圖像(標(biāo)簽為0)的偏差。這兩種情況下得到的損失值隨后被累加,并乘以一個(gè)預(yù)定義的損失系數(shù),以此計(jì)算出判別網(wǎng)絡(luò)的綜合損失值,該值反映了判別網(wǎng)絡(luò)在區(qū)分真實(shí)圖像與生成圖像能力上的整體表現(xiàn)。具體實(shí)現(xiàn)代碼如下:defcalc_d_loss(self,real,fake):alpha=4e-4d_loss_real=tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=real,labels=tf.ones_like(real)))d_loss_fake=tf.reduce_mean(tf.nn.sigmoid_cross_entropy_with_logits(logits=fake,labels=tf.zeros_like(fake)))returntf.add(d_loss_real,d_loss_fake)*alpha算法訓(xùn)練為了準(zhǔn)備訓(xùn)練樣本及相應(yīng)的掩膜,本研究實(shí)現(xiàn)了get_points()函數(shù),該函數(shù)詳細(xì)描述了樣本坐標(biāo)與掩膜生成的過(guò)程。具體步驟如下:在一個(gè)尺寸為image_size乘以image_size的完整圖像區(qū)域內(nèi),隨機(jī)選擇一個(gè)點(diǎn)(x1,y1)作為局部區(qū)域的左上角起點(diǎn)。此局部區(qū)域的大小定義為local_size乘以local_size。接下來(lái),在這個(gè)局部區(qū)域內(nèi),隨機(jī)選取一個(gè)起始點(diǎn)(p1,q1),并基于預(yù)設(shè)的長(zhǎng)度和寬度上限,確定一個(gè)需要被修復(fù)的“空洞”區(qū)域。隨后,創(chuàng)建一個(gè)與原圖像同尺寸的掩膜,其中空洞區(qū)域內(nèi)的像素值設(shè)置為1,表示這部分需要修復(fù),而其他非空洞區(qū)域的像素值保持為0,表示這些區(qū)域是完好無(wú)損的。這一過(guò)程有效地為訓(xùn)練過(guò)程定義了損壞區(qū)域的位置和范圍,為圖像修復(fù)任務(wù)提供了必要的輸入信息。訓(xùn)練樣本結(jié)構(gòu)如REF_Ref134397139\h圖45所示。圖STYLEREF1\s4SEQ圖\*ARABIC\s15訓(xùn)練樣本坐標(biāo)及掩膜主要實(shí)現(xiàn)代碼如下:foriinrange(BATCH_SIZE):x1,y1=np.random.randint(0,IMAGE_SIZE-LOCAL_SIZE+1,2)x2,y2=np.array([x1,y1])+LOCAL_SIZEpoints.append([x1,y1,x2,y2])w,h=np.random.randint(HOLE_MIN,HOLE_MAX+1,2)p1=x1+np.random.randint(0,LOCAL_SIZE-w)q1=y1+np.random.randint(0,LOCAL_SIZE-h)p2=p1+wq2=q1+hm=np.zeros((IMAGE_SIZE,IMAGE_SIZE,1),dtype=np.uint8)m[q1:q2+1,p1:p2+1]=1mask.append(m)隨后,訓(xùn)練過(guò)程根據(jù)迭代次數(shù)的多少采取不同的策略。具體地,訓(xùn)練流程分為以下步驟:在訓(xùn)練初期,當(dāng)當(dāng)前迭代次數(shù)不超過(guò)修復(fù)網(wǎng)絡(luò)的預(yù)定訓(xùn)練階段設(shè)定值時(shí),重點(diǎn)放在對(duì)修復(fù)網(wǎng)絡(luò)自身的訓(xùn)練上。這一階段的目標(biāo)是提高修復(fù)網(wǎng)絡(luò)在處理圖像損壞區(qū)域時(shí)的性能,確保其能夠有效地恢復(fù)出丟失或損壞的圖像內(nèi)容。一個(gè)epoch循環(huán)step_num次,每次從訓(xùn)練集中取出一批BATCH_SIZE大小的圖像,并根據(jù)get_points()隨機(jī)生成的坐標(biāo)及掩膜遮蓋圖像。實(shí)現(xiàn)代碼如下:foriintqdm.tqdm(range(step_num)):x_batch=x_train[i*BATCH_SIZE:(i+1)*BATCH_SIZE]points_batch,mask_batch=get_points()將被遮蓋圖像輸入至修復(fù)網(wǎng)絡(luò),使用梯度優(yōu)化算法進(jìn)行修復(fù)網(wǎng)絡(luò)損失函數(shù)損失值的降低。實(shí)現(xiàn)代碼如下:_,g_loss=sess.run([g_train_op,model.g_loss],feed_dict={x:x_batch,mask:mask_batch,is_training:True})g_loss_value+=g_lo

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論