基于Attention機(jī)制的U-net的眼底滲出液分割_第1頁(yè)
基于Attention機(jī)制的U-net的眼底滲出液分割_第2頁(yè)
基于Attention機(jī)制的U-net的眼底滲出液分割_第3頁(yè)
基于Attention機(jī)制的U-net的眼底滲出液分割_第4頁(yè)
基于Attention機(jī)制的U-net的眼底滲出液分割_第5頁(yè)
已閱讀5頁(yè),還剩8頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

基于Attention機(jī)制的U-net的眼底滲出液分割摘要:糖尿病視網(wǎng)膜病變(DR)是一種嚴(yán)重的眼部異常,其嚴(yán)重情況下會(huì)導(dǎo)致視網(wǎng)膜脫落甚至失明。眼底的滲出液是由于高血糖毒性作用,導(dǎo)致血屏障破壞,血管內(nèi)的脂質(zhì)等漏出而造成的。是視網(wǎng)膜病變的并發(fā)癥之一。由于患者與專業(yè)醫(yī)生數(shù)量懸殊巨大,設(shè)計(jì)一個(gè)可以自動(dòng)的檢測(cè)滲出液的醫(yī)療助手是十分重要的任務(wù)。本文依托于深度學(xué)習(xí)方法,以U-Net架構(gòu)為骨架網(wǎng)絡(luò),以準(zhǔn)確度(Acc)、靈敏度(SE)、特異性(SP)以及AUC值作為模型性能的評(píng)估指標(biāo),先測(cè)試了原始U-Net在該任務(wù)上的分割能力,在該任務(wù)上達(dá)到99.8%的準(zhǔn)確度,73.1%的靈敏度,98.0%的特異性以及0.973的AUC值。根據(jù)U-Net網(wǎng)絡(luò)架構(gòu)的固有問(wèn)題,將Attention機(jī)制與U-Net結(jié)構(gòu),搭建AttentionU-Net。99.8%的準(zhǔn)確度,81.5%的靈敏度,99.8%的特異性以及0.985的AUC值。實(shí)驗(yàn)結(jié)果表明,AttentionU-Net有更好的特征提取能力。關(guān)鍵詞:視網(wǎng)膜病變;深度學(xué)習(xí);AttentionU-Net;硬滲出液分割1引言糖尿病視網(wǎng)膜病變(DR)是一種嚴(yán)重的眼部異常,這種病變與慢性糖尿病相關(guān),是糖尿病最常見的微血管病癥之一,是慢性糖尿病導(dǎo)致的視網(wǎng)膜微血管滲漏和阻塞而引起的一系列的眼底病變,有微血管瘤、硬性滲出甚至視網(wǎng)膜脫落等等表現(xiàn)?;加兴幕颊呖赡軙?huì)逐漸失去視力,甚至造成失明[1]。近年來(lái),隨著醫(yī)學(xué)水平的不斷提高,糖尿病視網(wǎng)膜病變(DR)可以通過(guò)及時(shí)診斷和干預(yù)來(lái)治療,但是視力障礙的病變和癥狀很容易在疾病的早期階段被忽視,這會(huì)導(dǎo)致之后治療的成本和風(fēng)險(xiǎn)大大提高。與之應(yīng)對(duì)的措施之一就是安排糖尿病患者進(jìn)行定期檢查以延遲或減輕失明的風(fēng)險(xiǎn)。但是,由于醫(yī)護(hù)數(shù)量有限,且具有經(jīng)驗(yàn)的臨床醫(yī)生目前遠(yuǎn)遠(yuǎn)不足以進(jìn)行不間斷的診斷龐大的糖尿病患者群體,截至目前,全球有超過(guò)4億糖尿病患者。若想完成對(duì)每一位患者的周期性檢查,幾乎是不可能完成的。因此需要開發(fā)一種自動(dòng)診斷技術(shù)幫助醫(yī)學(xué)專家減輕負(fù)擔(dān),在保證檢測(cè)效率的前提下提高精度。硬性滲出液是糖尿病視網(wǎng)膜病變的并發(fā)癥之一。由于高血糖毒性作用,血屏障被破壞,血管內(nèi)的脂質(zhì)、蛋白成分漏到視網(wǎng)膜上,留下黃色的點(diǎn)狀深處。圖1.1為眼底硬性滲出液的示意圖。如圖1所示,紅色框內(nèi)部的點(diǎn)狀異常為眼底滲出液。需要解決的問(wèn)題就是將該區(qū)域的特征有效的提取出來(lái),輸出一個(gè)二值圖片。圖1眼底滲出液示意圖實(shí)現(xiàn)眼底圖像分割的方法具有兩大方向[2-3]。一個(gè)方向是基于傳統(tǒng)的機(jī)器學(xué)習(xí)以及機(jī)器視覺的方法。Fleming等人采用SVM的方法實(shí)現(xiàn)了對(duì)滲出液的分割[4]。他們首先使用均值和高斯濾波器對(duì)RGB圖像的綠色通道進(jìn)行矯正。采用多種線性結(jié)構(gòu)元素用來(lái)檢測(cè)滲出液的區(qū)域。最后檢測(cè)到的區(qū)域使用SVM分類器將滲出液區(qū)域和背景區(qū)域分割出來(lái)。除此以外,Sopharak用樸素貝葉斯分類器實(shí)現(xiàn)了該任務(wù)[5]。Osareh等人用FCM的方法,實(shí)現(xiàn)了對(duì)滲出液位置的像素級(jí)精準(zhǔn)定位[6]。傳統(tǒng)機(jī)器學(xué)習(xí)的方法需要對(duì)問(wèn)題進(jìn)行特殊的定制,且泛化能力受算法限制,操作過(guò)程繁雜,具體問(wèn)題需要具體分析。隨著深度學(xué)習(xí)技術(shù)的發(fā)展以及GPU運(yùn)算的速度持續(xù)加快,以神經(jīng)網(wǎng)絡(luò)為代表的圖像分割方式逐漸完善。Gardner等人首次使用反向傳播的神經(jīng)網(wǎng)絡(luò)來(lái)檢測(cè)眼底滲出液[7]。深度學(xué)習(xí)發(fā)展后,模型對(duì)于大樣本的需求很高。但在醫(yī)學(xué)領(lǐng)域,病癥圖片的樣本十分稀少。為了解決小樣本的預(yù)測(cè)問(wèn)題,OlafRonneberger等人提出了U-net[8]。U-net基于卷積神經(jīng)網(wǎng)絡(luò)搭建而成,卷積層的運(yùn)算具有高并行性,且由于權(quán)值共享的機(jī)制擁有很少的參數(shù)量,卻有很強(qiáng)的空間特征提取能力。本文基于U-net的架構(gòu),利用深度學(xué)習(xí)的方法將數(shù)據(jù)集分為訓(xùn)練集和測(cè)試集。經(jīng)過(guò)數(shù)據(jù)預(yù)處理和網(wǎng)絡(luò)訓(xùn)練調(diào)試,網(wǎng)絡(luò)可以達(dá)到較好的預(yù)測(cè)結(jié)果。2方法2.1數(shù)據(jù)由于e-ophtha數(shù)據(jù)集中僅有47個(gè)標(biāo)注數(shù)據(jù),且數(shù)據(jù)的特征屬于正負(fù)樣本不均衡問(wèn)題,為了擴(kuò)充數(shù)據(jù)集,采用了兩個(gè)方法。首先,進(jìn)一步加入IDRiD官方的分割數(shù)據(jù)集。選用分割數(shù)據(jù)集中的硬分割數(shù)據(jù)。觀察IDRiD的數(shù)據(jù)集可以發(fā)現(xiàn),數(shù)據(jù)集中的標(biāo)簽格式為TIF格式,且圖片中的滲出液用紅色作為標(biāo)注。為了與e-ophtha數(shù)據(jù)集的標(biāo)注數(shù)據(jù)統(tǒng)一,則將其轉(zhuǎn)化為黑白二值圖像以及相同的圖片格式。接下來(lái)進(jìn)行數(shù)據(jù)集的擴(kuò)充和增強(qiáng)。在實(shí)驗(yàn)過(guò)程中,一共采用了兩種方式。第一種,單獨(dú)對(duì)e-ophtha數(shù)據(jù)集進(jìn)行處理,對(duì)單個(gè)圖片切割成很多patches。首先將圖片進(jìn)行中心裁剪為960×960的圖片,去掉大部分不感興趣的區(qū)域。再將圖片resize到512×512。之后對(duì)單個(gè)圖片進(jìn)行切割,嘗試了32×32、64×64、128×128三種不同的patch。40張圖片作為訓(xùn)練集,7張圖片作為測(cè)試集。因此會(huì)分別得到10240:1792、2560:448、640:112這三種不同數(shù)量級(jí)的訓(xùn)練測(cè)試對(duì)。搭建U-net對(duì)其進(jìn)行訓(xùn)練。最后結(jié)果輸出時(shí),將裁剪后的圖片重新恢復(fù)成原狀。第二種,融合e-ophtha數(shù)據(jù)集和IDRiD數(shù)據(jù)集進(jìn)行數(shù)據(jù)中心裁剪為960×960,再resize到512×512。以64×64為1個(gè)patch對(duì)每一張圖像進(jìn)行切割,得到128×64張patches。Patches以32batchsize大小為單位,輸入網(wǎng)絡(luò)進(jìn)行計(jì)算。Labels也做同樣的處理,確保數(shù)據(jù)集一一對(duì)應(yīng)。同時(shí),對(duì)于RGB圖像來(lái)說(shuō),紅色通道更加飽和,藍(lán)色通道則色調(diào)更暗,由于綠色通道有更強(qiáng)的對(duì)比度,所以選擇該通道最為輸入圖像的通道,完成三通道數(shù)據(jù)到單通道數(shù)據(jù)的轉(zhuǎn)換[13]。2.2模型架構(gòu)2.2.1Encoder-Decoder架構(gòu)Encoder-Decoder架構(gòu)是計(jì)算成像領(lǐng)域中的一個(gè)經(jīng)典的架構(gòu)。在該計(jì)算框架下,Encoder負(fù)責(zé)圖像的特征提取。Decoder負(fù)責(zé)圖像的信息重建和分割任務(wù)。在圖像分割領(lǐng)域中,U-net結(jié)構(gòu)的卷積神經(jīng)網(wǎng)絡(luò)是一種典型的Encoder-Decoder架構(gòu)。其相比于全連接型的Encoder-Decoder架構(gòu)有巨大的優(yōu)勢(shì)。首先,全連接型神經(jīng)網(wǎng)絡(luò)是一種密集型連接,意味著每一個(gè)神經(jīng)元之間都要進(jìn)行連接和計(jì)算。這無(wú)疑在前向傳播和反向傳播的過(guò)程中會(huì)消耗巨大的計(jì)算資源。不僅如此,全連接的神經(jīng)網(wǎng)絡(luò)由于其參數(shù)量巨大,面對(duì)一些數(shù)據(jù)集較少的任務(wù)時(shí),全連接神經(jīng)網(wǎng)絡(luò)面臨著過(guò)擬合的問(wèn)題。同時(shí),當(dāng)圖片數(shù)據(jù)輸入全連接神經(jīng)網(wǎng)絡(luò)時(shí),需要將其打平成一維向量,這樣會(huì)丟失相關(guān)的空間信息。由于上述原因,在本實(shí)驗(yàn)中采用卷積計(jì)算的方式作為神經(jīng)網(wǎng)絡(luò)的基本計(jì)算模塊。卷積計(jì)算的優(yōu)勢(shì)在于,由于權(quán)值共享的機(jī)制,每一個(gè)卷積層所需要的參數(shù)量相比于全連接層要小得多。卷積核是一種稀疏的權(quán)重連接方式,能一定程度的減輕網(wǎng)絡(luò)的過(guò)擬合現(xiàn)象。且能較好的根據(jù)圖像的空間特征調(diào)整自己的權(quán)重。卷積核的多通道特性可以使網(wǎng)絡(luò)在學(xué)習(xí)的過(guò)程中自己調(diào)整每一個(gè)通道的權(quán)重,每一個(gè)通道實(shí)質(zhì)相當(dāng)于一個(gè)特征選擇器,能提取圖片上的不同信息。更重要的是,卷積計(jì)算具有不變性。這樣可以讓網(wǎng)絡(luò)有更好的泛化性能。卷積核的大小也對(duì)網(wǎng)絡(luò)的特征提取能力有一定的影響。圖2展示了不同卷積核大小的感受野。圖2.不同大小的卷積核的感受野表2.2.1比較了全連接層與卷積層的計(jì)算性能。層FLOPs[1]參數(shù)量[2]全連接層7,750,6567,750,656卷積層162,81681表2.2.1比較兩者時(shí)需要控制輸入變量的大小。這里假設(shè)輸入3×32×32大小的RGB圖像,因此全連接層的輸入神經(jīng)元個(gè)數(shù)為3072。令卷積核的大小為3,通道數(shù)為1,步長(zhǎng)為1,padding為0,則卷積計(jì)算后的圖像大小為29×29。則全連接神經(jīng)網(wǎng)絡(luò)的輸出為841。根據(jù)本頁(yè)下方的計(jì)算公式,可以計(jì)算得到全連接層的浮點(diǎn)操作數(shù)和參數(shù)量。當(dāng)前的U-net正是基于卷積操作的基礎(chǔ)上提出的處理醫(yī)學(xué)領(lǐng)域圖像分割的有效模型。本文在當(dāng)前的U-net上進(jìn)行了一些改進(jìn),即加入了Attention機(jī)制,訓(xùn)練時(shí)采用BCEWithLogitsLoss作為損失函數(shù)。本文進(jìn)行了一個(gè)對(duì)比實(shí)驗(yàn),首先搭建U-net網(wǎng)絡(luò)直接進(jìn)行訓(xùn)練。其次加入了Attention機(jī)制,進(jìn)行第二次訓(xùn)練,效果比原U-net結(jié)構(gòu)明顯提升。下面分別對(duì)Attention機(jī)制、U-net以及BCE損失函數(shù)進(jìn)行介紹。2.2.2Attention機(jī)制Attention機(jī)制顧名思義是注意力機(jī)制。即將重點(diǎn)集中注意力在某一個(gè)區(qū)間而不是全部。這最初借鑒于人類視覺。人類觀察一幅圖片的時(shí)候并不會(huì)關(guān)注每一個(gè)細(xì)節(jié)部位,而是重點(diǎn)聚焦在圖片的核心內(nèi)容上。將Attention機(jī)制引入計(jì)算機(jī)視覺、NLP等等領(lǐng)域,都增強(qiáng)了網(wǎng)絡(luò)對(duì)于重點(diǎn)信息的關(guān)注能力和提取能力。在卷積神經(jīng)網(wǎng)絡(luò)處理圖像的問(wèn)題上,很多人也提出了不同角度的注意力機(jī)制。例如,JieHu等人在SEnet網(wǎng)絡(luò)提出通道注意力機(jī)制[9];SanghyunWoo等人提出CBAM模塊時(shí),引入了空間注意力機(jī)制[10]。注意力機(jī)制的本質(zhì),就是在通道或者空間維度,根據(jù)當(dāng)前信息的計(jì)算,得到多個(gè)可學(xué)習(xí)的權(quán)重,并附加到對(duì)應(yīng)的通道或者空間上,讓網(wǎng)絡(luò)自動(dòng)根據(jù)目標(biāo)尋找感興趣的通道或區(qū)域。2.2.2U-net本文中U-net結(jié)構(gòu)設(shè)計(jì)如圖3所示。圖3U-net架構(gòu)U-net結(jié)構(gòu)參考OlafRonneberger等人提出的標(biāo)準(zhǔn)框架[8]。該結(jié)構(gòu)的三個(gè)重要的機(jī)制分別為下采樣、上采用和跳層連接。下采樣會(huì)以2為倍數(shù)對(duì)圖片大小進(jìn)行縮減,這樣做的好處是可以在保持kernel-size不變的情況下,增大卷積核的感受野,能讓卷積操作在不同的視野范圍內(nèi)提取圖片的特征。上采樣一般有三種方法:最鄰近插值、二次線性插值以及反卷積。在本文實(shí)驗(yàn)時(shí)采用的方式為二次線性插值法,這種方法相比與最鄰近插值會(huì)有更加精確的結(jié)果,同時(shí)比用反卷積的網(wǎng)絡(luò)有更少的參數(shù)量。跳層連接可以結(jié)合高維信息和低維信息,實(shí)現(xiàn)信息的融合,有效的防止了在上采樣過(guò)程中信息的損失。在本文的U-net的卷積計(jì)算時(shí),分別采用64、128、256、512、1024五種通道數(shù)逐步降采樣。升采樣的過(guò)程則以對(duì)稱的方式,將圖片和通道數(shù)恢復(fù)到輸入的形式。2.2.3AttentionU-netAttentionU-net由OzanOkatay等人在2018年提出[11]。圖4展示了在本文中采用的AttentionU-net的基本框架。圖4AttentionU-net網(wǎng)絡(luò)架構(gòu)在該網(wǎng)絡(luò)中,每一個(gè)模塊由DoubleConv層、BatchNormalization層、ReLU層組成。通道數(shù)變化為1、64、128、256、512、1024。下采樣采用MaxPooling,上采樣采用雙線性插值法。同時(shí)加入了Skip-connection機(jī)制,加入該層的目的是為了更好的結(jié)合高維特征和低維特征,便于網(wǎng)絡(luò)分割。AttentionGate機(jī)制加在Skip-connection路徑中,AG的輸入是對(duì)應(yīng)的下采樣的輸出和上采樣部分的輸入。2.2.3AttentionGate機(jī)制OzanOkatay在文章中指出,級(jí)聯(lián)框架提取感興趣區(qū)域(ROI)并對(duì)該區(qū)域進(jìn)行預(yù)測(cè)時(shí)現(xiàn)在大多數(shù)模型的基石。但這種方法導(dǎo)致過(guò)多和冗余地使用計(jì)算資源和模型參數(shù)。為了解決這個(gè)問(wèn)題,文章提出了AttentionGate方法。該方法存在幾個(gè)優(yōu)勢(shì):1.CNN會(huì)自動(dòng)關(guān)注有顯著特征的區(qū)域;2.不會(huì)引入無(wú)關(guān)的計(jì)算量。其通過(guò)抑制無(wú)關(guān)區(qū)域中特征的激活來(lái)提高模型的靈敏度和準(zhǔn)確性。圖5示意了本文采用的AttentionGate機(jī)制。圖5AttentionGate計(jì)算流程上圖中的GateSignal來(lái)自還未進(jìn)行上采樣時(shí)的當(dāng)前層,Skip-Input來(lái)自對(duì)應(yīng)下采樣層級(jí)的跳層輸入信號(hào)。兩種信號(hào)經(jīng)過(guò)1×1的卷積核后進(jìn)行加性融合。融合后的部分通過(guò)ReLU激活函數(shù)以及Sampler,計(jì)算得到α值,也即所謂的Attentioncoefficient。再將Attentioncoefficient與需要上采樣的Skip-Input進(jìn)行元素相乘。最后輸出,公式1描述了AttentionGate的計(jì)算流程。4實(shí)驗(yàn)結(jié)果4.1評(píng)價(jià)指標(biāo)圖像分割的本質(zhì)是像素級(jí)的二分類問(wèn)題,因此可以用相關(guān)的評(píng)估指標(biāo)對(duì)模型性能進(jìn)行評(píng)判。這里選用準(zhǔn)確度(Acc)、靈敏度(SE)、特異性(SP)以及AUC值,ROC曲線對(duì)兩個(gè)網(wǎng)絡(luò)的分割結(jié)果進(jìn)行綜合評(píng)判。其中,準(zhǔn)確度、靈敏度、特異性的計(jì)算公式如下:公式中,TP(TruePositive)代表分類正確的像素個(gè)數(shù);FP(FalsePositive)代表非滲出液區(qū)域但被分為滲出液的像素個(gè)數(shù);TN(TrueNegative)代表分類正確的正常像素個(gè)數(shù);FN(FalseNegative)代表滲出液區(qū)域被分為非滲出液區(qū)域的像素個(gè)數(shù)。ROC(ReceiverOperatingCharacteristic),又稱受試者工作特征曲線。ROC圖像中,橫坐標(biāo)代表FP,縱坐標(biāo)代表TP。AUC的值就是ROC覆蓋區(qū)域的面積,可以代表模型分割結(jié)果的精準(zhǔn)程度。AUC的值越大,則說(shuō)明模型的效果越好。采用這種方式,可以直觀的對(duì)兩種模型進(jìn)行比較。4.2模型比較表2展示了U-Net以及AttentionU-Net在測(cè)試數(shù)據(jù)集上的表現(xiàn)??梢悦黠@觀察到,加入Attention機(jī)制,使網(wǎng)絡(luò)擁有了更好的特征提取能力,分割時(shí)會(huì)集中在感興趣區(qū)域(ROI)上,有效的分割圖片。但是,U-Net模型的參數(shù)量為3.38M,而AttentionU-Net模型的參數(shù)量高達(dá)34.88,要高一個(gè)數(shù)量級(jí)。所以訓(xùn)練時(shí)長(zhǎng)要大于U-Net。模型AccSPSEAUCU-Net0.9980.9800.7310.973AttentionU-Net0.9980.9990.8150.985表2不同模型的訓(xùn)練結(jié)果圖11ROC曲線4.3實(shí)驗(yàn)結(jié)果實(shí)驗(yàn)過(guò)程中共搭建了兩種不同的網(wǎng)絡(luò),在統(tǒng)一數(shù)據(jù)集上運(yùn)行相同的Epoch數(shù)量。Batchsize為32,學(xué)習(xí)率為0.0001,設(shè)置ratio-decay,每12個(gè)epoch減少為原來(lái)的0.9倍。最終的實(shí)驗(yàn)結(jié)果如圖12所示,其中(a)為輸入圖像,(b)為groundtruth,(c)為U-Net預(yù)測(cè)結(jié)果,(d)為AttentionU-Net預(yù)測(cè)結(jié)果。圖12滲出液分割結(jié)果5結(jié)論在本研究中,首先分析了卷積操作的可行性,基于該分析,采用卷積形式的Encoder-Decoder架構(gòu),以U-Net為骨架進(jìn)行實(shí)驗(yàn)。實(shí)驗(yàn)過(guò)程中發(fā)現(xiàn)了U-Net在分割任務(wù)方面的不足,為了讓模型能關(guān)注更重要的區(qū)域,減少對(duì)非滲出液區(qū)域的冗余計(jì)算和無(wú)意義的特征提取,將Attention機(jī)制應(yīng)用于U-Net網(wǎng)絡(luò)架構(gòu)中。實(shí)驗(yàn)結(jié)果表明,Attention的U-Net網(wǎng)絡(luò)模型的特征提取能力、分割能力以及泛化性能要比U-Net優(yōu)越。由于加入Attention機(jī)制后,網(wǎng)絡(luò)的參數(shù)量會(huì)比原U-Net的網(wǎng)絡(luò)有所增多。在未來(lái)的實(shí)驗(yàn)中,將采用Bottleneck機(jī)制,在不影響網(wǎng)絡(luò)性能的前提下,盡可能的使AttentionU-Net輕量化。此外,實(shí)驗(yàn)仍然表明,增大kernelsize會(huì)提升網(wǎng)絡(luò)的精度??梢圆捎肈oubleConv與Bottleneck結(jié)合的方式,并加入殘差結(jié)構(gòu),進(jìn)一步提升模型的性能。6參考文獻(xiàn)1.H.Wang,G.Yuan,X.Zhao,L.Peng,Z.Wang,Y.He,C.Qu,andZ.Peng,‘‘Hardexudatedetectionbasedondeepmodellearnedinformationandmulti-featurejointrepresentationfordiabeticretinopathyscreening,’’Comput.MethodsProgramsBiomed.,vol.191,Jul.2020,Art.no.105398.2.FO,AUR,NEYK,etal.AlgorithmsfortheAutomatedDetectionofDiabeticRetinopathyUsingDigitalFundusImages:AReview[J].JournalofMedicalSystems,2012,36(1):145–157.3.MMRK,AUR,CCK,etal.Computer-aideddiagnosisofdiabeticretinopathy:Areview[J].ComputersinBiologyandMedicine,2013,43(12):2136–2155.4.A.D.Fleming,S.Philip,K.A.Goatman,G.J.Williams,J.A.Olson,P.F.Sharp,Automateddetectionofexudatesfordiabeticretinopathyscreening,Phys.Med.Biol.52(24)(2007)7385.5.A.Sopharak,K.ThetNew,Y.N.AyeMoe,M.Dailey,B.Uyyanonvara,Automaticexudatedetectionwithana?veBayesclassifier,in:InternationalConferenceonEmbeddedSystemsandIntelligentTechnology,2008,pp.139-142.6.A.Osareh,B.Shadgar,R.Markham,Acomputational-intelligence-basedapproachfordetectionofexudatesindiabeticretinopathyimages,IEEETrans.Inf.Technol,Biomed.13(4)(2009)535-545.7.G.G.Gardner,D.Keating,T.H.Williamson,A.T.Elliott,Automaticdetectionofdiabeticretinopathyusinganartificialneuralnetwork:ascreeningtool,Br.J.Ophthalmol,80(1996)940-944.8.OlafRonneberger,PhilippFischer,andThomasBrox,U-Net:ConvolutionalNetworksforBiomedic

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論