【《深度學(xué)習(xí)在肺炎識(shí)別中的應(yīng)用研究國(guó)內(nèi)外文獻(xiàn)綜述》1700字】_第1頁(yè)
【《深度學(xué)習(xí)在肺炎識(shí)別中的應(yīng)用研究國(guó)內(nèi)外文獻(xiàn)綜述》1700字】_第2頁(yè)
【《深度學(xué)習(xí)在肺炎識(shí)別中的應(yīng)用研究國(guó)內(nèi)外文獻(xiàn)綜述》1700字】_第3頁(yè)
【《深度學(xué)習(xí)在肺炎識(shí)別中的應(yīng)用研究國(guó)內(nèi)外文獻(xiàn)綜述》1700字】_第4頁(yè)
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第第9頁(yè)深度學(xué)習(xí)在肺炎識(shí)別中的應(yīng)用研究國(guó)內(nèi)外文獻(xiàn)綜述深度學(xué)習(xí)的研究現(xiàn)狀1998年,LeCun等人提出了非常著名的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)LeNet5[3],LeNet5包含了池化層、卷積層和全連接層,是個(gè)七層的卷積神經(jīng)網(wǎng)絡(luò)模型,他們利用這個(gè)網(wǎng)絡(luò)模型實(shí)現(xiàn)了手寫數(shù)字圖像的識(shí)別,并取得了90%的準(zhǔn)確率。2012年Krizhevsky[4]等人利用深度卷積神經(jīng)網(wǎng)絡(luò)AlexNet在ImageNet[5]圖像分類競(jìng)賽上以非常大的優(yōu)勢(shì)獲得了冠軍,這徹底掀起了利用深度學(xué)習(xí)進(jìn)行圖像識(shí)別的研究熱潮。大批科研人員開(kāi)始在深度學(xué)習(xí)領(lǐng)域展開(kāi)了相關(guān)研究,之后誕生了一批優(yōu)秀的深度學(xué)習(xí)算法。2014年,牛津大學(xué)和Google公司聯(lián)合提出的了VGG網(wǎng)絡(luò)模型[6],VGG網(wǎng)絡(luò)模型使用具有非常?。?x3)卷積濾波器的架構(gòu)對(duì)深度增加的網(wǎng)絡(luò)進(jìn)行徹底的評(píng)估,實(shí)驗(yàn)證明將網(wǎng)絡(luò)深度推到16-19權(quán)重層可以實(shí)現(xiàn)對(duì)現(xiàn)有技術(shù)配置的顯著改進(jìn)。2015年谷歌公司的Szegedy等人提出了一個(gè)名為“Inception”的深度卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),該架構(gòu)使用的一個(gè)具體體現(xiàn)是GoogLeNet,這是一個(gè)22層的深層網(wǎng)絡(luò)。這種體系結(jié)構(gòu)的主要特點(diǎn)是提高了網(wǎng)絡(luò)內(nèi)部計(jì)算資源的利用率,它允許增加網(wǎng)絡(luò)的深度和寬度,同時(shí)保持計(jì)算預(yù)算不變[7]。2016年He等人[8]提出了深度殘差網(wǎng)絡(luò)(ResNet)的概念,以簡(jiǎn)化之前大多數(shù)網(wǎng)絡(luò)的深度。實(shí)驗(yàn)結(jié)果表明,這些剩余網(wǎng)絡(luò)更容易優(yōu)化,并可以從相當(dāng)大的增加深度獲得精度。計(jì)算機(jī)輔助診斷算法的研究現(xiàn)狀因?yàn)榻┠陙?lái)計(jì)算機(jī)的性能大幅提升,利用計(jì)算機(jī)相關(guān)技術(shù)對(duì)醫(yī)學(xué)圖像進(jìn)行識(shí)別和分析,一直是國(guó)內(nèi)外的研究熱點(diǎn)之一。2015年,臺(tái)灣的王家銘等使用K個(gè)最近鄰點(diǎn)分類器對(duì)肺炎圖像進(jìn)行了識(shí)別工作的最終精確度為75%[9]。2018年,印度孟買戈?duì)柛蔘ure.ai公司的SasankChilamkurthy在《Lancet》雜志提出了一種基于深度學(xué)習(xí)的顱腦CT病變檢測(cè)算法,該算法能夠自動(dòng)檢測(cè)顱腦CT掃描的關(guān)鍵性病變[10]。2017年斯坦福大學(xué)科研團(tuán)隊(duì)AndreEsteva等人利用深度卷積神經(jīng)網(wǎng)絡(luò)Inceptionv3直接對(duì)皮膚癌圖像進(jìn)行端到端的訓(xùn)練,僅使用像素和疾病標(biāo)簽作為輸入[11],最終取得了極好的效果。2017年,AndrewNg等人提出了一種121層卷積神經(jīng)網(wǎng)絡(luò)CheXnet用于肺炎檢測(cè),利用美國(guó)國(guó)立衛(wèi)生研究院Wang等人[12]提供的10萬(wàn)余張肺部X光片(包含肺炎、水腫、胸膜增厚等14種肺部疾?。┻M(jìn)行研究,結(jié)果表明該網(wǎng)絡(luò)可以完成肺炎檢測(cè)工作,并且將模型微調(diào),可以用于其他13種胸部疾病的檢測(cè)。實(shí)驗(yàn)結(jié)果表明,CheXnet網(wǎng)絡(luò)模型具有良好的肺炎識(shí)別能力,且識(shí)別的準(zhǔn)確性超過(guò)了專業(yè)的放射科醫(yī)生。2018年,Correa等人提出了一種利用肺部超聲成像和模式識(shí)別對(duì)肺炎進(jìn)行自動(dòng)分類的方法[13]。2019年,Sirazitdinov等人提出了一種由RetinaNet和MaskR-CNN兩種卷積神經(jīng)網(wǎng)絡(luò)組成的肺炎檢測(cè)與定位集成系統(tǒng),該工作為肺炎的自動(dòng)診斷提供了可靠的解決方案[14]。2019年,首爾國(guó)立大學(xué)醫(yī)學(xué)院的Hwang等人使用深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)算法在胸部X光片上實(shí)現(xiàn)了多種肺部疾病檢測(cè)[15]。Gabruseva,Poplavskiy和A.Kalinin提出了一種基于壓縮和激發(fā)CNNs、增強(qiáng)和多任務(wù)學(xué)習(xí)的胸片肺部陰影自動(dòng)定位算法,該算法在Kaggle平臺(tái)上的肺炎區(qū)域檢測(cè)中表現(xiàn)最佳ADDINNE.Ref.{E5F48C80-FD4D-4C33-A321-59C2217C9376}[16][16][16]。參考文獻(xiàn)[1] 余剛,陳秋芳,劉金榮,等.429例兒童麻疹并發(fā)肺炎分析[J].浙江預(yù)防醫(yī)學(xué),2009,21(009):29-30.[2] 李帥.基于深度學(xué)習(xí)的胸片輔助診斷算法[D].廣東工業(yè)大學(xué),2019.[3] LecunY,BottouL.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.[4] KrizhevskyA,SutskeverI,HintonGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks[J].CommunicationsoftheACM,2017,60(6):84-90.[5] JiaD,WeiD,SocherR,etal.ImageNet:Alarge-scalehierarchicalimagedatabase[J].ProcofIEEEComputerVision&PatternRecognition,2009:248-255.[6] SimonyanK,ZissermanA.VeryDeepConvolutionalNetworksforLarge-ScaleImageRecognition[J].ComputerScience,2014.[7] SzegedyC,LiuW,JiaY,etal.GoingDeeperwithConvolutions[J].IEEEComputerSociety,2014.[8] DeepResidualLearningforImageRecognition[C].IEEEConferenceonComputerVision&PatternRecognition,2016.[9] 高冬冬.基于卷積神經(jīng)網(wǎng)絡(luò)的肺炎識(shí)別與研究[D].桂林理工大學(xué),2019.[10] ChilamkurthyS,GhoshR,TanamalaS,etal.DevelopmentandValidationofDeepLearningAlgorithmsforDetectionofCriticalFindingsinHeadCTScans[J].2018.[11] AndreE,BrettK,NovoaRA,etal.Dermatologist-levelclassificationofskincancerwithdeepneuralnetworks[J].Nature,2019,2017年542卷7639期:115-118.[12] WangX,PengY,LuL,etal.ChestX-ray8:Hospital-scaleChestX-rayDatabaseandBenchmarksonWeakly-SupervisedClassificationandLocalizationofCommonThoraxDiseases[J].IEEE,2017.[13] CorreaM,ZimicM,BarrientosF,etal.Automaticclassificationofpediatricpneumoniabasedonlungultrasoundpatternrecognition[J].PLoSONE,2018,13(12).[14] SirazitdinovI,KholiavchenkoM,MustafaevT,etal.Deepneuralnetworkensembleforpneumonialocalizationfromalarge-scalechestx-raydatabase[J].Computers&ElectricalEngineering,2019,78:388-399.[15] HwangEJ,ParkS,JinKN,etal.DevelopmentandValidationofaDeepLearning–BasedAutomatedDetectionAlgorithmforMajorThoracicDiseasesonChestRadiographs[J].JamaNetworkOpen,2019,2(3).[16] GabrusevaT,PoplavskiyD.DeepLearningforAutomaticPneumoniaDetection[C].2020IEEE/CVFConferenceonComputerVisionandPatternRecognitionWorkshops(CVPRW),2020.[17] 周宇杰.深度學(xué)習(xí)在圖像識(shí)別領(lǐng)域的應(yīng)用現(xiàn)狀與優(yōu)勢(shì)[J].中國(guó)安防,(7期):75-78.[18] 張歡.基于深度學(xué)習(xí)算法的肝硬化識(shí)別研究[D].青島大學(xué),2020.[19] 潘浩,王昭,姚佳文.深度學(xué)習(xí)在肺癌患者生存預(yù)測(cè)中的應(yīng)用研究[J].計(jì)算機(jī)工程與應(yīng)用,2018,54(014):138-142,235.[20] 沈海洋,朱信忠,胡佳楠.基于人工神經(jīng)網(wǎng)絡(luò)的肺癌識(shí)別[J].電子技術(shù)與軟件工程,2018(20):240-241.[21] 李雅迪.基于三維卷積神經(jīng)網(wǎng)絡(luò)模型的肺癌CT圖像識(shí)別[D].陜西師范大學(xué),2018.[22] 楊宇.基于深度學(xué)習(xí)的肺炎檢測(cè)算法研究與應(yīng)用[D].貴州大學(xué),2020.[23] 李新,陳帆,郝海江,等.深度學(xué)習(xí)在肺炎檢測(cè)中的研究綜述[J].桂林

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論