《一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)》9100字(論文)_第1頁(yè)
《一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)》9100字(論文)_第2頁(yè)
《一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)》9100字(論文)_第3頁(yè)
《一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)》9100字(論文)_第4頁(yè)
《一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)》9100字(論文)_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一種深度神經(jīng)網(wǎng)絡(luò)的三維可形變?nèi)四樐P驮O(shè)計(jì)摘要 [14-19][。3.三維模型擬合誤差除了人臉對(duì)齊誤差會(huì)對(duì)三維可形變模型的擬合造成影響外,三維模型擬合過(guò)程本身也存在一定的誤差。這類誤差包括但不僅限于:二維特征點(diǎn)與三維頂點(diǎn)的對(duì)應(yīng)關(guān)系誤差,即它們沒(méi)有精確地表現(xiàn)人臉的同一個(gè)位置;攝像機(jī)投影矩陣的系統(tǒng)誤差:算法中使用了仿射攝像機(jī)投影矩陣進(jìn)行平行投影,而現(xiàn)實(shí)世界中的人臉圖片全部使用透視攝像機(jī)(PerspectiveCamera)拍攝。使用放射攝像機(jī)投影矩陣構(gòu)建出來(lái)的三維模型為帶有透視效果的三維人臉模型,而非人臉的真實(shí)形狀;轉(zhuǎn)換矩陣構(gòu)造時(shí)產(chǎn)生的誤差等。上述所有誤差都會(huì)或多或少地影響算法生成的三位人臉模型實(shí)例效果,需要加以注意。五、總結(jié)與展望(一)本論文所做工作總結(jié)三維人臉重建在娛樂(lè)、醫(yī)療和安防等多個(gè)領(lǐng)域具有廣泛的應(yīng)用前景,基于其實(shí)際應(yīng)用場(chǎng)景,利用單張二維人臉圖片進(jìn)行三維人臉重建有著重大的現(xiàn)實(shí)意義。但現(xiàn)有的研究方法對(duì)模型構(gòu)建的條件要求較高,有些需要同一個(gè)體的多張不同角度人臉圖片才能完成人臉模型的構(gòu)建,有些需要昂貴的儀器采集人臉樣本,而有些要求不高的方法構(gòu)建出的模型效果又不夠理想,無(wú)法投入實(shí)際應(yīng)用。

本文介紹了相關(guān)工作的背景知識(shí),對(duì)于涉及的算法既做出了理論分析,也完成了實(shí)驗(yàn)驗(yàn)證,使用深度卷積神經(jīng)網(wǎng)絡(luò)用于單圖像三維人臉重建。經(jīng)過(guò)訓(xùn)練后,該神經(jīng)網(wǎng)絡(luò)可以接受單張人臉作為輸入,輸出對(duì)應(yīng)的三維人臉模型參數(shù)。同時(shí)通過(guò)三維人臉模型生成多張不同角度的人臉,用于人臉識(shí)別。(二)進(jìn)一步研究設(shè)想與展望未來(lái)可以從以下幾方面進(jìn)行改進(jìn):一、以深度神經(jīng)網(wǎng)絡(luò)輸出的三維模型參數(shù)作為特征,直接進(jìn)行人臉識(shí)別,人臉驗(yàn)證等任務(wù)。二、可以使用更豐富的3D人臉模型數(shù)據(jù)來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò),使深度神經(jīng)網(wǎng)絡(luò)輸入更為精確的人臉重建模型參數(shù)。三、論文主要針對(duì)的單張任意人臉圖片的三維人臉重建主要是針對(duì)正臉的人臉圖片,對(duì)于任意光照和任意人臉表情的圖片沒(méi)有投入過(guò)多的研究,但為了能使重建模型得到更廣泛的應(yīng)用,未來(lái)需要更進(jìn)一步地降低對(duì)人臉圖片的要求,使模型基于任意條件下二維人臉圖片都能重建出真實(shí)穩(wěn)定的三維人臉形狀。參考文獻(xiàn)FuK,XieY,JingH,etal.Fastspatial-temporalstereomatchingfor3Dfacereconstructionunderspecklepatternprojection[J].ImageandVisionComputing,2019,85(MAY):36-45.HouY,PingF,RavyseI,etal.3DFaceAlignmentviaCascade2DShapeAlignmentandConstrainedStructurefromMotion[C]//AdvancedConceptsforIntelligentVisionSystems,InternationalConference,Acivs,Bordeaux,France,September28-october.DBLP,2009.AtickJ,GriffinP,RedlichA.StatisticalApproachtoShapefromShading:ReconstructionofThree-DimensionalFaceSurfacesfromSingleTwo-DimensionalImages[J].NeuralComputation,1996,8(6):1321-1340.BlanzV,VetterT.Amorphablemodelforthesynthesisof3Dfaces[C].internationalconferenceoncomputergraphicsandinteractivetechniques,1999:187-194.BoothJ,RoussosA,PonniahA,etal.LargeScale3DMorphableModels[J].InternationalJournalofComputerVision,2018,126(2):233-254.TewariA,Zollh?ferM,KimH,etal.Mofa:Model-baseddeepconvolutionalfaceautoencoderforunsupervisedmonocularreconstruction[C]//TheIEEEInternationalConferenceonComputerVision(ICCV).2017,2(3):5.ZhuX,LeiZ,LiuX,etal.Facealignmentacrosslargeposes:A3dsolution[C]//ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition.2016:146-155.FengY,WuF,ShaoX,etal.Joint3DFaceReconstructionandDenseAlignmentwithPositionMapRegressionNetwork[J].arXivpreprintarXiv:1803.07835,2018.尹寶才,高文,晏潔,等.基于模型的頭部運(yùn)動(dòng)估計(jì)和面部圖像合成[J].計(jì)算機(jī)研究與發(fā)展,1999(1):67-71.張劍.融合SFM和動(dòng)態(tài)紋理映射的視頻流三維表情重建[J].計(jì)算機(jī)輔助設(shè)計(jì)與圖形學(xué)學(xué)報(bào),2010,22(6):000949-958.MPiotraschke,VBlanz.Automated3DFaceReconstructionfromMultipleImagesUsingQualityMeasures.CVPR,2016AnhTuanTran,TalHassner,IacopoMasi,andGerardMedioni.

RegressingRobustandDiscriminative3DMorphableModelswithaveryDeepNeuralNetwork.

IEEEConf.onComputerVisionandPatternRecognition(CVPR),Honolulu,2017.GaryB.HuangandErikLearned-Miller.LabeledFacesintheWild:UpdatesandNewReportingProcedures.UniversityofMassachusetts,AmherstTechnicalReportUM-CS-2014-003CristinacceD,CootesTF.FeatureDetectionandTrackingwithConstrainedLocalModels[C]//BritishMachineVisionConference2006,Edinburgh,Uk,September.DBLP,2006:929-938.DollarP,WelinderP,PeronaP.Cascadedposeregression[J].IEEE,2010,238(6):1078-1085.SunY,WangX,TangX.DeepConvolutionalNetworkCascadeforFacialPointDetection[C]//ComputerVisionandPatternRecognition.IEEE,2013:3476-3483.ZhangK,ZhangZ,LiZ,etal.JointFaceDetectionandAlignmentUsingMultitaskCascadedConvolutionalNetworks[J].IEEESignalProcessingLetters,2016,23(10):1499-1503.KowalskiM,NaruniecJ,TrzcinskiT.DeepAlignmentNetwork:AConvolutionalNeuralNetworkforR

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論