【《三維人臉識別研究的國內(nèi)外文獻綜述》5700字】_第1頁
【《三維人臉識別研究的國內(nèi)外文獻綜述》5700字】_第2頁
【《三維人臉識別研究的國內(nèi)外文獻綜述》5700字】_第3頁
【《三維人臉識別研究的國內(nèi)外文獻綜述》5700字】_第4頁
【《三維人臉識別研究的國內(nèi)外文獻綜述》5700字】_第5頁
已閱讀5頁,還剩2頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

附錄三維人臉識別研究的國內(nèi)外文獻綜述目錄TOC\o"1-3"\h\u30451三維人臉識別研究的國內(nèi)外文獻綜述 1164771.1人臉識別的發(fā)展 1292501.2三維人臉識別研究現(xiàn)狀 4196061.3三維人臉識別的發(fā)展和挑戰(zhàn) 51.1人臉識別的發(fā)展人臉識別技術(shù)經(jīng)過了近40年的發(fā)展,已經(jīng)成為圖像理解與分析領(lǐng)域最成功的應(yīng)用之一,大量識別算法踴躍出來。人臉識別技術(shù)最基礎(chǔ)的目的是從獲取的人臉圖像中提取具有個性化的面部特征,并由此來檢驗和識別人的身份。早在二十世紀(jì)初,人臉識別就出現(xiàn)了。人臉識別在二十世紀(jì)中葉發(fā)展成為一個獨立的學(xué)科。在近百年的時間,可以從使用方法上將相關(guān)研究工作分為三個發(fā)展階段。第一階段為早期的人臉識別工作。通過某種分布假設(shè)去直接獲取低維度的表征,如線性子空間ADDINEN.CITE<EndNote><CiteExcludeAuth="1"><Year>2014</Year><RecNum>7</RecNum><DisplayText><styleface="superscript">[4-6]</style></DisplayText><record><rec-number>7</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619162166">7</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors></contributors><titles><title>Transform-InvariantPCA:AUnifiedApproachtoFullyAutomaticFaceAlignment,Representation,andRecognition%JIEEETransactionsonPatternAnalysis&MachineIntelligence</title></titles><pages>1275-1284</pages><volume>36</volume><number>6</number><dates><year>2014</year></dates><urls></urls></record></Cite><Cite><Author>Belhumeur</Author><Year>1997</Year><RecNum>6</RecNum><record><rec-number>6</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619162077">6</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Belhumeur,P.</author><author>Hespanha,P.</author><author>Kriegman,D.</author><author>Fisherfaces,E.V.</author></authors></contributors><titles><title>Recognitionusingclassspecificlinearprojection</title></titles><dates><year>1997</year></dates><urls></urls></record></Cite><Cite><Author>MoghadDaM</Author><Year>1998</Year><RecNum>8</RecNum><record><rec-number>8</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619162221">8</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>MoghadDaM,B.</author><author>Wahid,W.</author><author>Pentland,A.%JProc.ThirdIntl.Conf.AutomaticFace-</author><author>Gesture-Recognition</author></authors></contributors><titles><title>Beyondeigenfaces:probabilisticmatchingforfacerecognition</title></titles><pages>30</pages><dates><year>1998</year></dates><urls></urls></record></Cite></EndNote>[4-6],流行ADDINEN.CITEADDINEN.CITE.DATA[7-9],稀疏表示ADDINEN.CITEADDINEN.CITE.DATA[10-13]。該思想在1990年代占據(jù)了主流,直到2000年左右。最代表性的工作就是EigenfaceADDINEN.CITE<EndNote><CiteExcludeAuth="1"><Year>2014</Year><RecNum>7</RecNum><DisplayText><styleface="superscript">[4]</style></DisplayText><record><rec-number>7</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619162166">7</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors></contributors><titles><title>Transform-InvariantPCA:AUnifiedApproachtoFullyAutomaticFaceAlignment,Representation,andRecognition%JIEEETransactionsonPatternAnalysis&MachineIntelligence</title></titles><pages>1275-1284</pages><volume>36</volume><number>6</number><dates><year>2014</year></dates><urls></urls></record></Cite></EndNote>[4],EigenFace方法使用PCA獲得面部分布的主要成分。具體實現(xiàn)是對訓(xùn)練集中所有面部圖像的協(xié)方差矩陣進行特征值分解,得到對應(yīng)的特征向量。這些特征向量是“特征臉”。每個特征向量或特征臉等效于捕獲或描述人臉之間的變化或特征。這意味著這些特征臉的線性組合可以表示不同的人臉。實際上,空間變換等同于“基變換”。原始像素空間的底數(shù)是單位“基”。在PCA之后,空間基于每個特征面或特征向量。在此空間(或坐標(biāo)軸)下,每個面都是一個點,該點的坐標(biāo)是每個要素基礎(chǔ)下該面的投影坐標(biāo)。之后由RonaldFisher提出FisherfaceADDINEN.CITE<EndNote><Cite><Author>Fisher</Author><Year>1936</Year><RecNum>9</RecNum><DisplayText><styleface="superscript">[14]</style></DisplayText><record><rec-number>9</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619163070">9</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Fisher,R.A.</author></authors></contributors><titles><title>Theuseofmultiplemeasurements</title></titles><dates><year>1936</year></dates><urls></urls></record></Cite></EndNote>[14]理論和特征臉里用到的PCA有相同的地方,其原理是基于LDA(LinearDiscriminantAnalysis,線性判別分析),兩者都是降低整體維數(shù)并將原始數(shù)據(jù)映射到低維空間的方法。從高維空間中提取具有最佳判別力的低維特征。這些特征使同一類別的樣本盡可能接近,同時使不同類別的樣本盡可能地分離,即選擇使類別間散布矩陣和樣本類別成為特征。內(nèi)部散射矩陣達到最大比率。但是,一個眾所周知的問題是,這些理論上可以解釋的整體方法通常無法處理無約束的面部變化,因為它們都是從預(yù)設(shè)分布中得出的。第二階段的人臉識別算法普遍采用了人工特征加分類器的思路。支持向量機,貝葉斯,神經(jīng)網(wǎng)絡(luò)等都是一些比較成熟的方案。這里人工特征的設(shè)計是關(guān)鍵,它要能有效的區(qū)分不同的人臉。描述圖像的很多特征都先后被用于人臉識別問題,包括HOGADDINEN.CITE<EndNote><Cite><Author>Dalal</Author><Year>2005</Year><RecNum>22</RecNum><DisplayText><styleface="superscript">[15]</style></DisplayText><record><rec-number>22</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619165235">22</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Dalal,N.</author><author>Triggs,B.</author></authors></contributors><titles><title>HistogramsofOrientedGradientsforHumanDetection</title><secondary-title>IEEEComputerSocietyConferenceonComputerVision&PatternRecognition</secondary-title></titles><dates><year>2005</year></dates><urls></urls></record></Cite></EndNote>[15]、SIFTADDINEN.CITE<EndNote><Cite><Author>Lowe</Author><Year>2004</Year><RecNum>21</RecNum><DisplayText><styleface="superscript">[16]</style></DisplayText><record><rec-number>21</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619165116">21</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Lowe,D.G.%JInternationalJournalofComputerVision</author></authors></contributors><titles><title>DistinctiveImageFeaturesfromScale-InvariantKeypoints</title></titles><pages>91-110</pages><volume>60</volume><number>2</number><dates><year>2004</year></dates><urls></urls></record></Cite></EndNote>[16]、GaborADDINEN.CITE<EndNote><Cite><Author>Liu</Author><Year>2002</Year><RecNum>19</RecNum><DisplayText><styleface="superscript">[17]</style></DisplayText><record><rec-number>19</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619164981">19</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Liu,C.</author><author>Wechsler,H.%JIEEETransactionsonImageProcessingAPublicationoftheIEEESignalProcessingSociety</author></authors></contributors><titles><title>Gaborfeaturebasedclassificationusingtheenhancedfisherlineardiscriminantmodelforfacerecognition</title></titles><pages>467</pages><volume>11</volume><number>4</number><dates><year>2002</year></dates><urls></urls></record></Cite></EndNote>[17]、LBPADDINEN.CITE<EndNote><Cite><Author>Ahonen</Author><Year>2006</Year><RecNum>20</RecNum><DisplayText><styleface="superscript">[18]</style></DisplayText><record><rec-number>20</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619165032">20</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Ahonen,T.</author><author>Hadid,A.</author><author>Pietikainen,M.%JIEEETransactionsonPatternAnalysis</author><author>MachineIntelligence</author></authors></contributors><titles><title>FaceDescriptionwithLocalBinaryPatterns:ApplicationtoFaceRecognition</title></titles><pages>2037-2041</pages><volume>28</volume><number>12</number><dates><year>2006</year></dates><urls></urls></record></Cite></EndNote>[18]等。它們的典型代表是LBP(局部二進制)特征。此特征簡單但有效。與特征臉方法相比,LBP的識別率有了很大的提高。LBP特征的計算非常簡單,可以部分解決光敏性問題,但仍然存在姿勢和表情問題。聯(lián)合貝葉斯ADDINEN.CITE<EndNote><Cite><Author>MultiPIE</Author><Year>2016</Year><RecNum>23</RecNum><DisplayText><styleface="superscript">[19]</style></DisplayText><record><rec-number>23</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619166452">23</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>MultiPIE</author></authors></contributors><titles><title>BayesianFaceRevisited:AJointFormulation</title></titles><dates><year>2016</year></dates><urls></urls></record></Cite></EndNote>[19]是對貝葉斯人臉進行改進的方法,以LBP和LE為基本特征,面部圖像的差異表示為由于姿勢,表情等導(dǎo)致的同一人之間的差異以及不同人之間的差異。由潛在變量組成的協(xié)方差用于建立兩個面孔的關(guān)聯(lián)。該方法的創(chuàng)新之處在于對兩個面部表示的聯(lián)合建模。當(dāng)對臉部進行聯(lián)合建模時,將使用該臉部的先驗知識將兩個臉部的建模問題轉(zhuǎn)換為單個臉部圖片的統(tǒng)計計算,以更好地驗證人臉的相關(guān)性,該方法在LFW數(shù)據(jù)集上取得了92.4%的優(yōu)異準(zhǔn)確率。人工特征的巔峰之作是在2013年MSRA提出的ADDINEN.CITE<EndNote><Cite><Author>Dong</Author><Year>2013</Year><RecNum>24</RecNum><DisplayText><styleface="superscript">[20]</style></DisplayText><record><rec-number>24</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619166495">24</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Dong,C.</author><author>Cao,X.</author><author>Fang,W.</author><author>Jian,S.</author></authors></contributors><titles><title>BlessingofDimensionality:High-DimensionalFeatureandItsEfficientCompressionforFaceVerification</title><secondary-title>ComputerVision&PatternRecognition</secondary-title></titles><dates><year>2013</year></dates><urls></urls></record></Cite></EndNote>[20],有關(guān)如何在面部驗證中使用高維特征的文章。作者主要以LBP為例,討論高維特征與驗證性能之間的正相關(guān)關(guān)系。即人臉尺寸越高,驗證越準(zhǔn)確、越高。第三個階段是基于深度學(xué)習(xí)ADDINEN.CITE<EndNote><Cite><Author>Krizhevsky</Author><Year>2012</Year><RecNum>25</RecNum><DisplayText><styleface="superscript">[21]</style></DisplayText><record><rec-number>25</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619166885">25</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Krizhevsky,A.</author><author>Sutskever,I.</author><author>Hinton,G.</author></authors></contributors><titles><title>ImageNetClassificationwithDeepConvolutionalNeuralNetworks</title><secondary-title>NIPS</secondary-title></titles><dates><year>2012</year></dates><urls></urls></record></Cite></EndNote>[21]的方法,自2012年深度學(xué)習(xí)在ILSVRC-2012取得優(yōu)異成績之后,許多研究人員正在嘗試將其應(yīng)用到自己的方向,這極大地促進了深度學(xué)習(xí)的發(fā)展。卷積神經(jīng)網(wǎng)絡(luò)在圖像分類中表現(xiàn)出強大的功能,通過學(xué)習(xí)獲得的卷積核明顯優(yōu)于人工設(shè)計的特征+分類器方案。人臉識別的研究人員使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)從大量的人臉圖片中學(xué)習(xí),然后從輸入圖像中提取可用于區(qū)分不同人臉的特征向量,而不是人為設(shè)計的特征。在早期階段,研究人員嘗試了網(wǎng)絡(luò)結(jié)構(gòu),輸入數(shù)據(jù)設(shè)計等方面的各種解決方案,然后將其發(fā)送到卷積神經(jīng)網(wǎng)絡(luò),以進行經(jīng)典的目標(biāo)分類模型訓(xùn)練。在后期,主要的改進集中在損失函數(shù)上,也就是說,強制卷積網(wǎng)絡(luò)學(xué)習(xí)獲得更有效地區(qū)分不同人的特征。這時,人臉識別領(lǐng)域已通過深度學(xué)習(xí)徹底改變。DeepFaceADDINEN.CITE<EndNote><Cite><Author>Taigman</Author><Year>2014</Year><RecNum>26</RecNum><DisplayText><styleface="superscript">[22]</style></DisplayText><record><rec-number>26</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619167287">26</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Taigman,Y.</author><author>Ming,Y.</author><author>Ranzato,M.</author><author>Wolf,L.</author></authors></contributors><titles><title>DeepFace:ClosingtheGaptoHuman-LevelPerformanceinFaceVerification</title><secondary-title>IEEEConferenceonComputerVision&PatternRecognition</secondary-title></titles><dates><year>2014</year></dates><urls></urls></record></Cite></EndNote>[22]是Facebook在2014年提出的一種方法。它是深度卷積神經(jīng)網(wǎng)絡(luò)在人臉識別領(lǐng)域的基礎(chǔ)工作。在本文中,將3D模型用于人臉對齊任務(wù),而深度卷積神經(jīng)網(wǎng)絡(luò)則針對對齊的人。FacePatch使用經(jīng)典的交叉熵?fù)p失函數(shù)(Softmax)進行多類分類學(xué)習(xí),以優(yōu)化問題,并最終通過FeatureEmbedding獲得固定長度的人臉特征向量。基本網(wǎng)絡(luò)使用多層本地卷積結(jié)構(gòu)。原因是希望網(wǎng)絡(luò)的不同卷積核可以學(xué)習(xí)臉部不同區(qū)域的特征,但是這會增加參數(shù)量并需要大量數(shù)據(jù)?;仡欉^去,這種策略不是非常必要。DeepFace在LFW上達到了97.35%的精度,已接近人類水平。與早期的小數(shù)據(jù)規(guī)模相比,F(xiàn)acebook收集了4000個人400萬張照片進行模型訓(xùn)練。在大數(shù)據(jù)訓(xùn)練的條件下,準(zhǔn)確率也得到了很大的提高。之后谷歌提出了FaceNetADDINEN.CITE<EndNote><Cite><Author>Schroff</Author><Year>2015</Year><RecNum>27</RecNum><DisplayText><styleface="superscript">[23]</style></DisplayText><record><rec-number>27</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619167363">27</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>FSchroff</author><author>Kalenichenko,D.</author><author>Philbin,J.%JIEEE</author></authors></contributors><titles><title>FaceNet:AUnifiedEmbeddingforFaceRecognitionandClustering</title></titles><dates><year>2015</year></dates><urls></urls></record></Cite></EndNote>[23],使用三重?fù)p失函數(shù)(TripletLoss)代替了常用的Softmax交叉熵?fù)p失函數(shù),在超球面空間中進行了優(yōu)化,以使類內(nèi)距離更緊湊,類間距離更長,最后獲得一個緊湊的128維人臉特征。該網(wǎng)絡(luò)使用GoogLeNet的Inception模型。模型參數(shù)較小,精度較高。LFW的準(zhǔn)確率達到99.63%。這個損失函數(shù)的思想也可以追溯到早期的LDA算法。湯曉鷗團隊提出的DeepID系列是一組非常有代表性的人臉識別模型。eepID1使用四層卷積,最后一層是Softmax,中間是深度隱藏身份特征。這是學(xué)習(xí)的人臉特征表示。使用Multi-patch分別訓(xùn)練模型,最后將它們組合成高維特征。人臉驗證階段使用聯(lián)合貝葉斯方法;通過學(xué)習(xí)多類別(10000個類別,每個類別大約有20個實例)來學(xué)習(xí)人臉識別任務(wù)。該方法指出,隨著訓(xùn)練期間要預(yù)測的人臉類別越多,DeepID的泛化能力將越強。DeepID2ADDINEN.CITE<EndNote><Cite><Author>Sun</Author><Year>2014</Year><RecNum>29</RecNum><DisplayText><styleface="superscript">[24]</style></DisplayText><record><rec-number>29</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619167929">29</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Sun,Yi</author><author>Wang,Xiaogang</author><author>Tang,Xiaoou%JarXivpreprintarXiv:.</author></authors></contributors><titles><title>Deeplearningfacerepresentationbyjointidentification-verification</title></titles><dates><year>2014</year></dates><urls></urls></record></Cite></EndNote>[24]在DeepID1的基礎(chǔ)上改進了損失函數(shù),并在原始識別損失的基礎(chǔ)上增加了驗證損失。驗證主要增加了一個類的緊湊性,而“識別”則反映了類之間的變化。通過增加類間的差距并減少類內(nèi)的差距。這個想法也起源于早期的LDA算法。DeepID3ADDINEN.CITE<EndNote><Cite><Author>Sun</Author><Year>2015</Year><RecNum>28</RecNum><DisplayText><styleface="superscript">[25]</style></DisplayText><record><rec-number>28</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619167861">28</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Sun,Yi</author><author>Liang,Ding</author><author>Wang,Xiaogang</author><author>Tang,Xiaoou%JarXivpreprintarXiv:.00873</author></authors></contributors><titles><title>Deepid3:Facerecognitionwithverydeepneuralnetworks</title></titles><dates><year>2015</year></dates><urls></urls></record></Cite></EndNote>[25]提出了兩種非常深的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(基于VGG和GoogleNet)用于人臉識別,但是識別結(jié)果與DeepID2相同。也許當(dāng)有更多的訓(xùn)練數(shù)據(jù)時,性能可以提高,并且需要進一步的研究。當(dāng)前的人臉識別任務(wù)主要用于開環(huán)識別的情況下,要求學(xué)習(xí)的人臉特征具有良好的泛化能力,Softmax函數(shù)本身用于解決多分類問題,不是面向隱式使用要素層進行優(yōu)化時,直接訓(xùn)練的要素通常沒有良好的泛化能力。盡管Contrastive人臉Loss和Triplet人臉Loss的優(yōu)化目標(biāo)是明確合理的,但它們要求研發(fā)人員具有豐富的數(shù)據(jù)工程經(jīng)驗(例如OHEM困難的樣本挖掘)。通過添加Center-Loss人臉ADDINEN.CITE<EndNote><Cite><Author>Wen</Author><Year>2016</Year><RecNum>30</RecNum><DisplayText><styleface="superscript">[26]</style></DisplayText><record><rec-number>30</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168246">30</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Wen,Yandong</author><author>Zhang,Kaipeng</author><author>Li,Zhifeng</author><author>Qiao,Yu</author></authors></contributors><titles><title>Adiscriminativefeaturelearningapproachfordeepfacerecognition</title><secondary-title>Europeanconferenceoncomputervision</secondary-title></titles><pages>499-515</pages><dates><year>2016</year></dates><publisher>Springer</publisher><urls></urls></record></Cite></EndNote>[26]來優(yōu)化特征層并與Softmax結(jié)合,可以訓(xùn)練具有良好內(nèi)聚力的特征。此方法在人臉識別中尤其重要,因此使用較少數(shù)據(jù)訓(xùn)練的模型也可以具有良好的性能。Center-Loss增加了一個損失函數(shù),該函數(shù)在Softmax的基礎(chǔ)上保持類別的中心,并使特征收斂到類別的中心,從而獲得與Triplet人臉Loss相似的效果。L-SoftmaxADDINEN.CITE<EndNote><Cite><Author>Liu</Author><Year>2016</Year><RecNum>31</RecNum><DisplayText><styleface="superscript">[27]</style></DisplayText><record><rec-number>31</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168573">31</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Liu,Weiyang</author><author>Wen,Yandong</author><author>Yu,Zhiding</author><author>Yang,Meng</author></authors></contributors><titles><title>Large-marginsoftmaxlossforconvolutionalneuralnetworks</title><secondary-title>ICML</secondary-title></titles><pages>7</pages><volume>2</volume><number>3</number><dates><year>2016</year></dates><urls></urls></record></Cite></EndNote>[27]由ICML2016中的一篇文章提出。它改進了Softmax并消除了網(wǎng)絡(luò)設(shè)計中最后一個分類層的偏差項(此方法用于隨后的人臉識別損失功能的改進中),直接優(yōu)化分類器的特征和余弦角,添加如果僅支持原始Softmax損失,則人為地增加一個角度(裕度)以增加學(xué)習(xí)模型的難度,并借鑒SVM的思想進行理解(即使分類,矢量與分類表面之間的距離也大于h)效果更好,則L-Softmax需要在分類效果達到預(yù)期結(jié)果之前達到mh(m為正整數(shù))的距離。這樣,最終增加了類之間的距離,并且使類內(nèi)的樣本更緊湊。SphereFaceADDINEN.CITE<EndNote><Cite><Author>Liu</Author><Year>2017</Year><RecNum>32</RecNum><DisplayText><styleface="superscript">[28]</style></DisplayText><record><rec-number>32</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168616">32</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Liu,Weiyang</author><author>Wen,Yandong</author><author>Yu,Zhiding</author><author>Li,Ming</author><author>Raj,Bhiksha</author><author>Song,Le</author></authors></contributors><titles><title>Sphereface:Deephypersphereembeddingforfacerecognition</title><secondary-title>ProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition</secondary-title></titles><pages>212-220</pages><dates><year>2017</year></dates><urls></urls></record></Cite></EndNote>[28]提出了A-Softmax,它對L-Softmax進行了較小的改進,對權(quán)重進行了歸一化,可以看作是對超球形流形上的樣本進行分類和區(qū)分。以上幾種方法都沒有對嵌入的特征層進行規(guī)范化,因此從嚴(yán)格意義上講,不能將其視為角度的優(yōu)化。L2-SoftmaxADDINEN.CITE<EndNote><Cite><Author>Ranjan</Author><Year>2017</Year><RecNum>33</RecNum><DisplayText><styleface="superscript">[29]</style></DisplayText><record><rec-number>33</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168646">33</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Ranjan,Rajeev</author><author>Castillo,CarlosD</author><author>Chellappa,Rama%JarXivpreprintarXiv:.09507</author></authors></contributors><titles><title>L2-constrainedsoftmaxlossfordiscriminativefaceverification</title></titles><dates><year>2017</year></dates><urls></urls></record></Cite></EndNote>[29],特征向量由L2歸一化。這樣做的好處是,以較小范數(shù)的特征計算出的梯度會更大;范數(shù)較小的特征通常對應(yīng)于質(zhì)量較差的圖片。因此,在某種程度上,特征歸一化起著類似于困難案例挖掘的作用。但是,在特征層上強制使用L2約束將導(dǎo)致分類空間太小,導(dǎo)致模型訓(xùn)練困難,并且Loss值難以降低。分類效果不好。在實際模型訓(xùn)練中,為了促進模型優(yōu)化,作者添加了比例因子以擴大分類的超球空間。隨后的AM-SoftmaxADDINEN.CITE<EndNote><Cite><Author>Wang</Author><Year>2018</Year><RecNum>34</RecNum><DisplayText><styleface="superscript">[30]</style></DisplayText><record><rec-number>34</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168678">34</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Wang,Feng</author><author>Cheng,Jian</author><author>Liu,Weiyang</author><author>Liu,Haijun%JIEEESignalProcessingLetters</author></authors></contributors><titles><title>Additivemarginsoftmaxforfaceverification</title></titles><pages>926-930</pages><volume>25</volume><number>7</number><dates><year>2018</year></dates><isbn>1070-9908</isbn><urls></urls></record></Cite></EndNote>[30]和ArcFaceADDINEN.CITE<EndNote><Cite><Author>Deng</Author><Year>2019</Year><RecNum>35</RecNum><DisplayText><styleface="superscript">[31]</style></DisplayText><record><rec-number>35</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168709">35</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Deng,Jiankang</author><author>Guo,Jia</author><author>Xue,Niannan</author><author>Zafeiriou,Stefanos</author></authors></contributors><titles><title>Arcface:Additiveangularmarginlossfordeepfacerecognition</title><secondary-title>ProceedingsoftheIEEE/CVFConferenceonComputerVisionandPatternRecognition</secondary-title></titles><pages>4690-4699</pages><dates><year>2019</year></dates><urls></urls></record></Cite></EndNote>[31]是對SphereFace的改進??梢詫rcFace視為AM-Softmax的改進版本,將Margin直接添加到角度中。這樣做的優(yōu)點是,角度距離比余弦距離對角度的影響更大。ArcFace參照L2-Softmax同時對特征和權(quán)重進行歸一化,并添加了固定的特征比例因子S。通過有針對性地改進網(wǎng)絡(luò)結(jié)構(gòu)和清理MegaFace數(shù)據(jù)集,該方法為二維人臉識別在該階段最優(yōu)的結(jié)果。1.2三維人臉識別研究現(xiàn)狀在1980年代后期,cartousADDINEN.CITE<EndNote><Cite><Author>Cartoux</Author><Year>1989</Year><RecNum>36</RecNum><DisplayText><styleface="superscript">[32]</style></DisplayText><record><rec-number>36</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619168835">36</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Cartoux,Jean-Yves</author><author>LaPresté,Jean-Thierry</author><author>Richetin,Marc</author></authors></contributors><titles><title>Faceauthentificationorrecognitionbyprofileextractionfromrangeimages</title><secondary-title>Proceedings.WorkshoponInterpretationof3DScenes</secondary-title></titles><pages>194,195,196,197,198,199-194,195,196,197,198,199</pages><dates><year>1989</year></dates><publisher>IEEEComputerSociety</publisher><urls></urls></record></Cite></EndNote>[32]等人使用基于曲率的方法在小型三維人臉數(shù)據(jù)庫上進行測試,并實現(xiàn)了100%的識別精度。在1996年,GordonADDINEN.CITE<EndNote><Cite><Author>RWGeaaadlikilneeTgrGs</Author><Year>2000</Year><RecNum>37</RecNum><DisplayText><styleface="superscript">[33]</style></DisplayText><record><rec-number>37</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169231">37</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>RWGeaaadlikilneeTgrGs</author><author>Mbsgrcaooor,A.</author></authors></contributors><titles><title>FaceRecognitionfromFrontalandProfileViews</title></titles><dates><year>2000</year></dates><urls></urls></record></Cite></EndNote>[33]實驗證明將人臉的正面視圖和側(cè)面視圖組合在一起可以提高三維人臉識別的識別精度。從那時起,隨著3D掃描設(shè)備(主要基于激光和結(jié)構(gòu)光技術(shù))的漸漸普及,3D人臉識別研究也在繼續(xù)發(fā)展。Mohamadzade等ADDINEN.CITE<EndNote><Cite><Author>Mohammadzade</Author><Year>2012</Year><RecNum>38</RecNum><DisplayText><styleface="superscript">[34]</style></DisplayText><record><rec-number>38</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169356">38</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Mohammadzade,Hoda</author><author>Hatzinakos,Dimitrios%JIEEEtransactionsonpatternanalysis</author><author>machineintelligence</author></authors></contributors><titles><title>Iterativeclosestnormalpointfor3Dfacerecognition</title></titles><pages>381-397</pages><volume>35</volume><number>2</number><dates><year>2012</year></dates><isbn>0162-8828</isbn><urls></urls></record></Cite></EndNote>[34]人利用類似于二維人臉識別中基于模式識別的方法,提出了一種用于三維人臉識別的迭代最近法線點的方法。與經(jīng)典ICP不同,該方法對一組點進行采樣并對齊這些點,以在采樣點處形成人臉的表面法線向量。作者的結(jié)論是,在采樣點上人臉的表面法線向量比該點的坐標(biāo)包含更多的判別信息。Luuk等人ADDINEN.CITE<EndNote><CiteExcludeYear="1"><Author>Fast</Author><RecNum>39</RecNum><DisplayText><styleface="superscript">[35]</style></DisplayText><record><rec-number>39</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169381">39</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Fast,SpreeuwersLuuk%JInteurnalofcomputerVision.-.-3</author></authors></contributors><titles><title>Accurate3DFaceRecognitionUsingRegistrationtoanIntrinsicCoordinateSystemandFusionofMultipleRegionClassifiers</title></titles><pages>389-414</pages><volume>93</volume><dates></dates><urls></urls></record></Cite></EndNote>[35]將人臉分成多個重疊區(qū)域,并使用主成分分析線性判別分析來融合這些區(qū)域。使用60個融合區(qū)域的分類器可提高識別率。cao等人ADDINEN.CITE<EndNote><Cite><Author>Cao</Author><Year>2012</Year><RecNum>40</RecNum><DisplayText><styleface="superscript">[36]</style></DisplayText><record><rec-number>40</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169403">40</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Cao,Xue</author><author>Shen,Wen</author><author>Yu,Li-Gong</author><author>Wang,YL</author><author>Yang,Jing-Yu</author><author>Zhang,ZW%JPatternRecognition</author></authors></contributors><titles><title>Illuminationinvariantextractionforfacerecognitionusingneighboringwaveletcoefficients</title></titles><pages>1299-1305</pages><volume>45</volume><number>4</number><dates><year>2012</year></dates><isbn>0031-3203</isbn><urls></urls></record></Cite></EndNote>[36]利用相鄰小波系數(shù)的相關(guān)性克服了光照變化,并用于實現(xiàn)三維人臉識別。類似于在二維人臉識別中基于手動特征的方法,Liu等人ADDINEN.CITE<EndNote><Cite><Author>Liu</Author><Year>2012</Year><RecNum>41</RecNum><DisplayText><styleface="superscript">[37]</style></DisplayText><record><rec-number>41</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169429">41</key></foreign-keys><ref-typename="ConferenceProceedings">10</ref-type><contributors><authors><author>Liu,Peijiang</author><author>Wang,Yunhong</author><author>Huang,Di</author><author>Zhang,Zhaoxiang</author></authors></contributors><titles><title>Recognizingoccluded3DfacesusinganefficientICPvariant</title><secondary-title>2012IEEEInternationalConferenceonMultimediaandExpo</secondary-title></titles><pages>350-355</pages><dates><year>2012</year></dates><publisher>IEEE</publisher><isbn>1467316598</isbn><urls></urls></record></Cite></EndNote>[37]提出了一個球面深度圖(SDM)來描述面部表面,并使用均勻的下采樣來減少頂點的數(shù)量來處理更大的點云。elaiwat等人ADDINEN.CITE<EndNote><Cite><Author>Elaiwat</Author><Year>2013</Year><RecNum>42</RecNum><DisplayText><styleface="superscript">[38]</style></DisplayText><record><rec-number>42</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169449">42</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Elaiwat,S</author><author>Bennamoun,Mohammed</author><author>Boussaid,Farid</author><author>El-Sallam,Amar%JIEEESignalProcessingLetters</author></authors></contributors><titles><title>3-Dfacerecognitionusingcurveletlocalfeatures</title></titles><pages>172-175</pages><volume>21</volume><number>2</number><dates><year>2013</year></dates><isbn>1070-9908</isbn><urls></urls></record></Cite></EndNote>[38]使用曲線波特征來實現(xiàn)三維人臉識別。該算法檢測人臉上的顯著點,并構(gòu)造多尺度局部表面描述符,以獲得不變于旋轉(zhuǎn)和位移的局部特征。Lei等人將三維人臉圖像分為剛性和半剛性區(qū)域,并提取四個局部幾何直方圖特征。最后,使用支持向量機(SVM)對特征進行分類,并且不同的類別對應(yīng)于不同的個體。實驗表明,剛性和半剛性區(qū)域特征的融合可以為面部表情的變化提供可靠的基礎(chǔ)。Zhang等人ADDINEN.CITE<EndNote><Cite><Author>Zhang</Author><Year>2011</Year><RecNum>43</RecNum><DisplayText><styleface="superscript">[39]</style></DisplayText><record><rec-number>43</rec-number><foreign-keys><keyapp="EN"db-id="vff95faa00st9oet2f1x2v9hv2rtxafw0p9r"timestamp="1619169498">43</key></foreign-keys><ref-typename="JournalArticle">17</ref-type><contributors><authors><author>Zhang,Guangpeng</author><author>Wang,Yunhong%JPatternRecognitionLetters</author></authors></contributors><titles><title>Robust3Dfacerecognitionbasedonresolutioninvariantfeatures</title></titles><pages>1009-1019</pages><volume>32</volume><number>7</number><dates><year>2011</year></dates><isbn>0167-8655</isbn><urls></urls></record></Cite></EndNote>[39]使用SIFT在六個不同的尺度上定位和匹配空間極限。該方法對噪聲和表情變化具有更好的魯棒性。近年來,卷積神經(jīng)網(wǎng)絡(luò)在二維人臉識別方向的成熟應(yīng)用促進了其在三維人臉識

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論