版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
PPT下載/xiazai/第六章:特征提取與選擇模式識別及Python實(shí)現(xiàn)123基本概念類別可分性判斷依據(jù)主成分分析法目錄
CONTENT4多維尺度分析5特征選擇方法PART
1基本概念PART01BasicConcept??特征維數(shù)災(zāi)難:當(dāng)特征小于某值時(shí),分類器的性能隨著特征個(gè)數(shù)的增加而增加,當(dāng)特征個(gè)數(shù)大于某值時(shí),分類器性能不升反降2.特征降維:以人體識別為例,選擇其中一個(gè)或者兩個(gè)有代表性的特征即可完成任務(wù),無需將每個(gè)特征都進(jìn)行識別。這種減少特征數(shù)量的過程被稱為“特征降維”。3.特征選擇與特征提?。航档吞卣骺臻g維數(shù)有兩種方式:特征選擇和特征提取,特征選擇是從D個(gè)特征中選出d(d<D)個(gè)特征;特征提取是通過適當(dāng)?shù)淖儞Q把D個(gè)特征轉(zhuǎn)換成d(d<D)個(gè)新特征。特征選擇是通過計(jì)算的方法從原特征中挑選出最具有辨別能力的特征;特征提取是通過某種數(shù)學(xué)變換產(chǎn)生新的特征。兩種方法都可以降低特征空間維數(shù),減小分類器的計(jì)算量,使分類器更容易實(shí)現(xiàn);另一方面,還可以消除特征之間可能存在的相關(guān)性,提高分類效率。特征選擇和特征提取不是完全分離的,在一些問題中,可以先進(jìn)行特征選擇,去掉對分類任務(wù)沒有幫助的特征,然后再對選擇出的具有辨別能力的特征進(jìn)行特征提取。
PART
2類別可分性判斷依據(jù)PART02ClassSeparabilityCriteria
PART
3主成分分析法PART03PrincipalComponentAnalysis?
下圖給出一個(gè)對二維空間數(shù)據(jù)進(jìn)行主成分分析的示例。在很多情況下,經(jīng)過分析,排在后面的主成分往往表明它們所包含的信息具有隨機(jī)性,并且對整個(gè)特征分析的過程來說影響較小。此時(shí)可以對原特征進(jìn)行主成分變化后,將后幾個(gè)本征值很小的主成分置零,再進(jìn)行主成分分析的逆變換,就可以實(shí)現(xiàn)對原始數(shù)據(jù)的降噪。
主成分分析示例
PART
4多維尺度分析PART04MultidimensionalScaling1.基本概念多維尺度法(Multidimensionalscaling,MDS)也稱作“多維排列模型”、“多維標(biāo)度”,是一種經(jīng)典的數(shù)據(jù)映射方法。MDS可以將多維空間中的樣本點(diǎn)按照比例進(jìn)行縮放,并在二維或者三維的低維度狀態(tài)下表示出來。多維尺度法可以分為度量型和非度量型。度量型MDS根據(jù)原空間中樣本間的距離或是不相關(guān)性關(guān)系,從定量的角度進(jìn)行度量,使得低維空間下依舊可以很好的保持原有維度樣本之間的距離數(shù)量關(guān)系;非度量型MDS不再保留定量關(guān)系,而是將原空間樣本之間的距離或不相關(guān)性關(guān)系,定性的在低維空間中表示,僅僅確定樣本間的順序關(guān)系,但無法進(jìn)行詳細(xì)比較。以地圖舉例,多維尺度法,將原本的三維城市關(guān)系盡可能的表示到二維平面上,使得二維的地圖中的城市間的距離可以將實(shí)際中的距離更好的表示出來??梢钥吹?,將城市間三維數(shù)據(jù)進(jìn)行MDS處理后得到的結(jié)果與我們平時(shí)所常見的地圖一致。
PART
5特征選擇方法PART05??BoostingMethods?最優(yōu)搜索算法(分支定界法)分支定界法(branchandbound,BAB)是一種自頂向下的全局搜索算法,其基本思想是根據(jù)每種特征的重要性生成一棵由不同特征選擇組成的樹,再按一定規(guī)律進(jìn)行搜索,最終得到全局最優(yōu)解,而不必遍歷整棵樹。分支定界法可以分為兩步:生成特征樹和搜索回溯。下面以從6個(gè)特征中挑選2個(gè)特征來舉例說明,如圖所示。分支定界法示意圖
分支定界法搜索回溯示意圖
謝謝觀看THANK
YOUPPT下載/xiazai/第七章:聚類分析模式識別及Python實(shí)現(xiàn)前言PREFACE前幾章主要討論了數(shù)據(jù)集中樣本類別已知情況下的分類器設(shè)計(jì),這些方法都屬于有監(jiān)督學(xué)習(xí)的范疇。一般來說,有監(jiān)督模式識別往往需要提供大量已知類別的樣本,但是,在很多實(shí)際情況中,這是有困難的。此時(shí),如何根據(jù)給定的未知標(biāo)簽的數(shù)據(jù)集實(shí)現(xiàn)對測試樣本的正確分類是一個(gè)值得關(guān)注的問題。這就是非監(jiān)督模式識別的問題,聚類問題屬于一種典型的非監(jiān)督模式識別問題,聚類問題所用的方法叫做聚類分析方法。本章主要講述聚類分析方法中的典型方法,包括基于模型的方法、基于密度的方法、動(dòng)態(tài)聚類方法以及分級聚類方法。在講述聚類方法的同時(shí),也會講述聚類方法用到的距離相似性度量和聚類準(zhǔn)則等概念。123基于模型的方法動(dòng)態(tài)聚類方法基于密度的聚類算法目錄
CONTENT4分級聚類方法PART
1基于模型的方法PART01??Model-BasedMethod??如果事先已經(jīng)知道樣本在特征空間的概率分布,那么可以使用基于模型的方法來解決聚類問題?;谀P偷姆椒ㄓ泻芏喾N,本節(jié)主要講述比較常用的單峰子集分離的方法。左圖是一個(gè)樣本數(shù)據(jù)集的密度分布形式,根據(jù)密度分布圖可以看到這個(gè)樣本集中的數(shù)據(jù)在特征空間中大多是集中到兩個(gè)峰值附近,對于這種聚類問題,通過單峰子集分離的方法可以從兩個(gè)單峰的中間把樣本數(shù)據(jù)分為兩類。示例中樣本數(shù)據(jù)的特征只有一維,單峰子集的尋找比較容易。如果樣本數(shù)據(jù)的特征是高維,則相對比較困難,因此人們通常使用投影的方法,將樣本數(shù)據(jù)根據(jù)某種準(zhǔn)則投影到一維坐標(biāo)上,然后在一維上尋找單峰,再使用單峰子集分離的方法解決聚類問題。單峰子集實(shí)例圖
例7.1設(shè)樣本分布在下圖中的A,B,C三個(gè)子集中,請使用單峰子集分離的方法完成聚類劃分。
PART
2動(dòng)態(tài)聚類方法PART02DynamicClusteringMethod??如果事先不知道樣本在特征空間的概率分布,那么就無法使用上一節(jié)所講的基于模型的方法。此時(shí),需要使用其他聚類方法來解決聚類問題。動(dòng)態(tài)聚類方法是實(shí)際中被普遍采用的一種聚類方法,動(dòng)態(tài)聚類方法一般具備以下三個(gè)要點(diǎn):(1)選定某種距離度量作為樣本間的相似性度量。(2)確定某個(gè)評價(jià)聚類結(jié)果質(zhì)量的準(zhǔn)則函數(shù)。(3)給定某個(gè)初始分類,然后用迭代算法找出使準(zhǔn)則函數(shù)取得極值的最好聚類結(jié)果。
例7.2 下圖為一樣本集的樣本分布情況,試用C均值算法進(jìn)行聚類,c為2。
PART
3基于密度的聚類算法PART03Density-BasedClusteringAlgorithm??
1.DBSCAN算法DBSCAN(Density-BasedSpatialClusteringofApplicationswithNoise,具有噪聲的基于密度的聚類方法)是一種基于密度的空間聚類算法。該算法將具有足夠密度的區(qū)域劃分為簇,并在具有噪聲的空間數(shù)據(jù)庫中發(fā)現(xiàn)任意形狀的簇,它將簇定義為密度相連的點(diǎn)的最大集合。具體步驟如下:(1)在樣本中隨機(jī)選擇一個(gè)點(diǎn)。規(guī)定圓的半徑Eps和圓內(nèi)最少樣本個(gè)數(shù)MinPts,如果在指定半徑Eps的圓內(nèi)有足夠多(≥MinPts)的樣本點(diǎn),那么認(rèn)為圓心是某一簇的點(diǎn);如果圓內(nèi)樣本點(diǎn)的個(gè)數(shù)小于MinPts,則被標(biāo)記為噪聲點(diǎn)。(2)將臨近點(diǎn)作為種子點(diǎn),遍歷所有的種子點(diǎn),如果該點(diǎn)被標(biāo)記為噪聲點(diǎn),則重新標(biāo)記為聚類點(diǎn);如果該點(diǎn)沒有被標(biāo)記過,則標(biāo)記為聚類點(diǎn)。并且以該點(diǎn)為中心,Eps為半徑畫圓,如果圓內(nèi)點(diǎn)數(shù)大于等于MinPts,則將圓內(nèi)的點(diǎn)添加到種子點(diǎn)中(被添加過的點(diǎn)需要重復(fù)添加)。(3)重復(fù)步驟(2),直到全部種子點(diǎn)被遍歷完。(4)標(biāo)記完一簇以后,重新尋找一個(gè)未被標(biāo)記的點(diǎn),開始新一輪的聚類。DBSCAN算法需要手動(dòng)輸入兩個(gè)參數(shù):半徑Eps和以Eps為半徑的圓內(nèi)最小樣本數(shù)MinPts。DBSCAN算法優(yōu)點(diǎn)和缺點(diǎn)如下:【算法優(yōu)點(diǎn)】(1)不需要輸入聚類個(gè)數(shù),可以對任意形狀的稠密數(shù)據(jù)集進(jìn)行聚類。(2)可以在聚類的同時(shí)發(fā)現(xiàn)噪聲?!舅惴ㄈ秉c(diǎn)】(1)當(dāng)樣本集的密度不均勻、聚類間距相差很大時(shí),聚類質(zhì)量較差,則不適合使用DBSCAN算法進(jìn)行聚類。(2)當(dāng)樣本集較大時(shí),聚類收斂時(shí)間較長。(3)調(diào)參相對于傳統(tǒng)的K-Means之類的聚類算法稍復(fù)雜,主要需要對距離閾值R,鄰域樣本數(shù)閾值MinPts聯(lián)合調(diào)參,不同的參數(shù)組合對最后的聚類效果有較大影響。2.增量DBSCAN聚類算法當(dāng)移動(dòng)對象軌跡數(shù)據(jù)呈非均勻分布特性時(shí),采用基于密度的聚類方法較為合適。傳統(tǒng)DBSCAN算法是一種基于密度的聚類算法,因具有較強(qiáng)的抗噪聲干擾和發(fā)現(xiàn)任意形狀聚簇等優(yōu)點(diǎn)而廣受歡迎。當(dāng)面對海量的移動(dòng)對象的軌跡數(shù)據(jù)時(shí),傳統(tǒng)DBSCAN算法具有較高的復(fù)雜度。對于新增數(shù)據(jù),傳統(tǒng)DBSCAN算法會對整個(gè)數(shù)據(jù)集進(jìn)行重新聚類,從而無法利用現(xiàn)有的聚類結(jié)果,造成極大的資源浪費(fèi)。為了提高傳統(tǒng)DBSCAN算法的聚類質(zhì)量和聚類效率,可以使用增量DBSCAN算法,該類算法通過增量聚類來實(shí)時(shí)動(dòng)態(tài)地更新聚類結(jié)果,具有更廣泛的應(yīng)用場景。DBSCAN算法的目的在于查找密度相連的最大對象集合,其基本思想是通過遍歷集合中的每個(gè)點(diǎn)對象來生成簇。對于新增數(shù)據(jù),增量DBSCAN聚類算法得到的結(jié)果,與用傳統(tǒng)DBSCAN算法重新聚類得到的結(jié)果是一樣的,這就是增量DBSCAN聚類算法的等價(jià)性。具有等價(jià)性是增量DBSCAN聚類算法,較之于其他增量聚類算法的最大優(yōu)點(diǎn)。
針對原始聚類局部集的不同變化,對新增數(shù)據(jù)和現(xiàn)有數(shù)據(jù)進(jìn)行相應(yīng)的增量處理,直至增量數(shù)據(jù)集Δx中所有數(shù)據(jù)處理完成。對于增量數(shù)據(jù)集的插入,增量DBSCAN聚類算法可能出現(xiàn)的四種情況具體如下:(1)添加噪聲點(diǎn)
插入數(shù)據(jù)對象x后,若,則x成為噪聲點(diǎn),初始聚類數(shù)據(jù)的聚類狀態(tài)保持不變。因?yàn)樾略鰯?shù)據(jù)x的插入,沒有對其Eps鄰域內(nèi)的原有數(shù)據(jù)造成影響,如圖(a)所示,插入對象x后,初始聚類集沒有發(fā)生任何變化,所以x為噪聲。(2)形成新的類簇
插入數(shù)據(jù)對象x后,若,且,則對象P在x插入之前為噪聲點(diǎn),x插入之后,P成為核心對象,且P不屬于任何一個(gè)現(xiàn)有的類簇。在密度可達(dá)的對象里不存在已有類簇的核心對象時(shí),將創(chuàng)建一個(gè)新類。如圖(b),插入x之前,P不滿足核心對象的條件,x的插入使P成為核心對象。(3)歸入現(xiàn)有類簇
插入數(shù)據(jù)對象x后,若,且所包含的全部核心對象在x插入之前屬于同一類簇,如圖(c)所示,則增量數(shù)據(jù)對象x剛好歸入該類簇。此外,還有另外一種特殊情況:所包含的核心對象來自于不同的類簇,當(dāng)x插入之后,不同類簇間依然密度不可達(dá),如圖(d)所示,則增量數(shù)據(jù)對象x在類簇C1和C2中選擇其中一個(gè)歸入。(4)合并多個(gè)類簇
插入數(shù)據(jù)對象x后,若,且所包含的核心對象屬于不同的類簇,由于x的插入,這些包含不同核心對象的不同類簇成為密度可達(dá),則將這些密度可達(dá)的類簇合并為一個(gè)新簇。2、刪除一個(gè)對象雖然在增量聚類中,大部分情況下只會插入數(shù)據(jù),但刪除數(shù)據(jù)同樣會引起初始聚類集的變化。下面討論當(dāng)刪除一個(gè)初始聚類集中的對象x時(shí),初始聚類結(jié)果集的變化情況。當(dāng)刪除一個(gè)數(shù)據(jù)對象x時(shí),初始聚類結(jié)構(gòu)也可能出現(xiàn)四種情況:噪聲、當(dāng)前類簇被撤銷、減少當(dāng)前類簇中的對象、當(dāng)前類簇分裂。針對這四種不同情況的處理如下:(1)噪聲
如果被刪除對象x是一個(gè)噪聲,則直接刪除,其他數(shù)據(jù)對象保持不變。(2)當(dāng)前類簇被撤銷
當(dāng)一個(gè)數(shù)據(jù)對象x被刪除,若,且x在刪除前是一個(gè)核心對象,同時(shí)x的Eps鄰域內(nèi)不存在其它核心對象,則刪除x的同時(shí),將鄰域內(nèi)的其他對象標(biāo)記為噪聲。(3)減少當(dāng)前類簇中的對象
當(dāng)一個(gè)數(shù)據(jù)對象x被刪除,若,且x的Eps鄰域內(nèi)的核心對象互相密度可達(dá),則刪除x后,一部分對象仍然屬于這個(gè)類簇,而另一部分對象被標(biāo)記為噪聲。(4)當(dāng)前類簇分裂
當(dāng)一個(gè)數(shù)據(jù)對象x被刪除,若,且x的Eps鄰域內(nèi)不存在能夠相互直接密度可達(dá)的核心對象,同時(shí)也不能與其他類簇核心對象彼此密度直接可達(dá),則該類簇將被分為多個(gè)類簇。3.KANN-DBSCAN傳統(tǒng)的DBSCAN算法需要人為確定Eps和MinPts參數(shù),參數(shù)的選擇直接決定了聚類結(jié)果的合理性,因此提出了一種新的自適應(yīng)確定DBSCAN算法參數(shù)的算法,即KANN-DBSCAN算法,該算法基于參數(shù)尋優(yōu)策略,通過利用數(shù)據(jù)集自身分布特性生成候選Eps和MinPts參數(shù),自動(dòng)尋找聚類結(jié)果的簇?cái)?shù)變化穩(wěn)定區(qū)間,并將該區(qū)間中密度閾值最少時(shí)所對應(yīng)Eps和MinPts參數(shù)作為最優(yōu)參數(shù)。KANN-DBSCAN算法的具體步驟如下:(1)輸入數(shù)據(jù)集,求數(shù)據(jù)集每個(gè)樣本的K-最近鄰距離;(2)求K-平均最近鄰距離作為Eps;(3)求所有樣本Eps范圍內(nèi)的樣本點(diǎn)數(shù),并求數(shù)學(xué)期望作為MinPts;(4)求密度閾值;(5)將成對的參數(shù)輸入DBSCAN尋找最優(yōu)簇?cái)?shù);(6)選擇簇?cái)?shù)為N時(shí)對應(yīng)的最大K數(shù)作為最優(yōu)K數(shù)。4.VDBSCAN算法傳統(tǒng)的密度聚類算法不能識別并聚類多個(gè)不同密度的簇,對此提出了變密度聚類算法VDBSCAN,針對密度不穩(wěn)定的數(shù)據(jù)集,可有效識別并同時(shí)聚類不同密度的簇,避免合并和遺漏?;舅枷胧歉鶕?jù)k-dist圖和DK分析,對數(shù)據(jù)集中的不同密度層次自動(dòng)選擇一組Eps和MinPts值,分別調(diào)用DBSCAN算法。PART
4分級聚類方法PART04HierarchicalClusteringMethod??
分級聚類方法也叫做層次聚類方法,同樣是聚類分析方法中比較常見的一種方法。層次聚類分為凝聚式層次聚類和分裂式層次聚類。在ISODATA算法中,我們了解到了分裂和合并操作。在分級聚類方法中,也有分裂和合并操作。凝聚式層次聚類,在初始階段將每一個(gè)樣本點(diǎn)都視為一個(gè)類,之后每次合并兩個(gè)距離最近的類,直到所有樣本被合并到兩個(gè)類中。分裂式層次聚類,在初始階段將整個(gè)樣本集視為一個(gè)類,之后每次分裂出一個(gè)類,直到最后剩下單個(gè)點(diǎn)的類為止。分級聚類的步驟很簡單,這里主要闡述分裂式層次聚類的算法步驟:(1)初始階段,每個(gè)樣本形成一個(gè)類。(2)執(zhí)行合并操作,計(jì)算任意兩個(gè)類之間的距離,把距離最小的兩個(gè)類合并為一類,記錄下這兩個(gè)類之間的距離,其余類保持不變。(3)判斷是否所有的樣本被合并到兩個(gè)類中,若是則結(jié)束,否則轉(zhuǎn)步驟(2)。通常使用聚類樹,也叫做系統(tǒng)樹圖來描述分級聚類的結(jié)果,如左圖下半部分所示。圖中A,B,C等均為樣本,兩個(gè)樣本合并則把兩個(gè)節(jié)點(diǎn)用樹枝連起來,樹枝的長度反映兩個(gè)樣本之間的距離。在圖上半部分中,可以看到A,B距離近,則連接A,B的樹枝短。聚類樹的畫法也可以從上往下畫,即聚類樹的上半部分是樣本節(jié)點(diǎn)。在聚類樹的繪制中,樣本節(jié)點(diǎn)的順序也可以不固定,同一類中的兩個(gè)節(jié)點(diǎn)可以左右互換,這并不影響最終聚類的結(jié)果。分級聚類算法的缺點(diǎn):與C均值算法類似,分級聚類算法也是一種局部搜索算法。在某些情況下,該算法對樣本的噪聲比較敏感,當(dāng)樣本數(shù)目較少時(shí),個(gè)別樣本的變動(dòng)會導(dǎo)致聚類結(jié)果發(fā)生很大變化,當(dāng)樣本數(shù)目逐漸增多時(shí),這種影響會逐漸減小。
謝謝觀看THANK
YOUPPT下載/xiazai/第八章:深度神經(jīng)網(wǎng)絡(luò)模式識別及Python實(shí)現(xiàn)前言PREFACE深度學(xué)習(xí)是目前人工智能和機(jī)器學(xué)習(xí)領(lǐng)域最受關(guān)注的研究方向,它通過分層結(jié)構(gòu)的分階段信息處理來探索特征學(xué)習(xí)和模式分類,其本質(zhì)是計(jì)算觀測數(shù)據(jù)的分層表示。研究者們在研究中發(fā)現(xiàn)人類的視覺功能是一個(gè)不斷抽象和迭代的過程,是低層到高層的特征抽象過程,通過逐步地提取特征,從而形成不同層次的特征,高層的特征是通過組合低層特征形成的,越高層次的特征,其特征分辨性能越好。受到人類視覺功能不斷抽象和迭代的啟發(fā),深度學(xué)習(xí)應(yīng)運(yùn)而生。深度學(xué)習(xí)的目的是構(gòu)造一個(gè)類似人腦的分層結(jié)構(gòu),逐層地提取越來越抽象的特征,建立一種從低層輸入到高層語義的對應(yīng)關(guān)系,它通過模仿人腦的機(jī)制來理解數(shù)據(jù)。深度學(xué)習(xí)的成功在于,它把原始數(shù)據(jù)通過一些簡單非線性的模型轉(zhuǎn)變成為更高級別、更加抽象的表達(dá)。這個(gè)過程不需要利用人工進(jìn)行設(shè)計(jì),而是使用一種通用的學(xué)習(xí)過程,從數(shù)據(jù)中自動(dòng)地進(jìn)行學(xué)習(xí)。123卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)注意力機(jī)制目錄
CONTENTPART
1卷積神經(jīng)網(wǎng)絡(luò)PART01??ConvolutionalNeuralNetwork??
在20世紀(jì)60年代,Hubel和Wiesel發(fā)現(xiàn),當(dāng)研究貓腦皮層中局部敏感和方向選擇的神經(jīng)元時(shí),它們獨(dú)特的網(wǎng)絡(luò)結(jié)構(gòu)可以有效降低反饋神經(jīng)網(wǎng)絡(luò)的復(fù)雜性。在此基礎(chǔ)上,兩人提出了卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetworks,CNN)。
現(xiàn)在CNN已經(jīng)成為許多科學(xué)領(lǐng)域的熱點(diǎn)之一,特別是圖像處理領(lǐng)域。由于CNN可以直接輸入原始圖像,而不必對圖像進(jìn)行繁瑣的預(yù)處理操作,因而得到了更為廣泛的應(yīng)用。
卷積神經(jīng)網(wǎng)絡(luò)是一類包含卷積運(yùn)算的深度前饋神經(jīng)網(wǎng)絡(luò),是深度學(xué)習(xí)代表性網(wǎng)絡(luò)之一。卷積神經(jīng)網(wǎng)絡(luò)擅長處理具有類似網(wǎng)格結(jié)構(gòu)的數(shù)據(jù),比如由像素組成的圖像數(shù)據(jù),因此在計(jì)算機(jī)視覺領(lǐng)域應(yīng)用得最為廣泛。卷積神經(jīng)網(wǎng)絡(luò)以“卷積”命名,代表至少在網(wǎng)絡(luò)的一層中使用卷積運(yùn)算來代替一般的矩陣乘法運(yùn)算。通常來講,卷積神經(jīng)網(wǎng)絡(luò)包括輸入層、卷積層、池化層和輸出層。
在處理圖像數(shù)據(jù)時(shí),卷積核通過滑動(dòng)窗口的方式,提取圖像中的特征(1)卷積核大小可以是小于輸入圖像尺寸的任意值,卷積核的大小代表了感受野的大小,卷積核越大,可提取的特征越復(fù)雜。(2)步長是卷積核在特征圖上每次滑動(dòng)的距離,步長為1時(shí),卷積核會逐個(gè)掃過特征圖中的每個(gè)元素。(3)填充是在輸入特征圖周圍填充一定數(shù)量的常數(shù),一般是0和1。隨著卷積層的增多,輸出特征圖會越來越小,通過在輸入特征圖周圍進(jìn)行填充,可以靈活地控制輸出特征圖的大小。卷積層參數(shù)包括卷積核大小、步長和填充,三者共同決定了卷積層輸出特征圖的尺寸,是卷積層的超參數(shù)。卷積神經(jīng)網(wǎng)絡(luò)中另一個(gè)十分重要的網(wǎng)絡(luò)層為池化層,在卷積層完成特征提取后,輸出的特征圖會被送到池化層進(jìn)行特征選擇和聚合。池化層中常用的池化操作有最大池化和平均池化,最大池化表示對區(qū)域內(nèi)的特征取最大值,平均池化表示對區(qū)域內(nèi)的特征取平均值。2.輸入層普通的多層神經(jīng)網(wǎng)絡(luò),輸入層就是圖像的特征向量。一般圖像經(jīng)過人工提取特征,得到特征向量,并作為該神經(jīng)網(wǎng)絡(luò)的輸入。這種方法表現(xiàn)的好壞很大程度上取決于人工提取的特征是否合理,然而人工提取特征的過程往往都是靠經(jīng)驗(yàn),具有很大的盲目性。與之相比,卷積神經(jīng)網(wǎng)絡(luò)的輸入層輸入的則是整張圖像,原始圖像直接作為CNN的輸入,避免了傳統(tǒng)識別算法中繁瑣的特征提取過程,這也是CNN的優(yōu)點(diǎn)之一。雖然圖像可以直接作為CNN的輸入,但是為了能讓識別算法發(fā)揮最佳效果,需要對原始的圖像數(shù)據(jù)進(jìn)行預(yù)處理。圖像預(yù)處理操作是圖像識別算法中不可缺少的一個(gè)環(huán)節(jié)。但是并不是所有的預(yù)處理方法都能取得好的效果,恰當(dāng)?shù)膱D像預(yù)處理方法和參數(shù)設(shè)置能對最終的識別效果起到積極的作用。因此,當(dāng)我們開始處理數(shù)據(jù)時(shí),首先要做的事是觀察數(shù)據(jù)并獲知其特性,根據(jù)圖像的特點(diǎn)來選取合適的預(yù)處理算法,這在圖像處理中起著關(guān)鍵性的作用。在實(shí)際應(yīng)用中,常用的圖像預(yù)處理算法包括均值減法、歸一化、PCA白化等。3.卷積層在輸入層之后就是卷積層,這也是CNN的核心部分。與普通的神經(jīng)網(wǎng)絡(luò)不同,Conv層每個(gè)神經(jīng)元的輸入是與前一層的部分神經(jīng)元相連,并提取該局部的特征,具體的做法是:上一層的特征圖被一個(gè)可學(xué)習(xí)的卷積核進(jìn)行卷積,然后通過一個(gè)非線性激活函數(shù),得到輸出特征圖。卷積運(yùn)算的優(yōu)點(diǎn)是可以使原信號特征增強(qiáng)、降低噪音。卷積核是一個(gè)權(quán)重濾波器,它的權(quán)重就是待學(xué)習(xí)的參數(shù)。Conv層中有多個(gè)不同的卷積核,每個(gè)卷積核具有不同的權(quán)重,提取的是上一層圖像多種不同的特征。多個(gè)卷積核提取圖像的多種特征,生成多個(gè)二維的特征圖,卷積核的數(shù)量與生成的特征圖的數(shù)量相等。在進(jìn)行特征提取時(shí),同一個(gè)特征圖的權(quán)值是共享的,即是使用相同的卷積核卷積上一層圖像得到的。Conv層將圖像不同的局部特征以二維特征圖的形式保存下來,在這個(gè)過程中,使得提取出的特征對旋轉(zhuǎn)、平移具有一定的魯棒性。在Conv層上,上一層的特征圖與可學(xué)習(xí)的卷積核進(jìn)行卷積,并通過激活函數(shù)形成輸出特征圖。4.池化層
Conv層的后面往往跟著池化層,也叫下采樣層,對上一層提取出來的特征圖像進(jìn)行降維,同時(shí)提取主要特征。Pooling層是產(chǎn)生圖像的下采樣版本,使用下采樣技術(shù)得到新的特征,降低特征圖像的空間尺寸,從而減少網(wǎng)絡(luò)中的參數(shù),達(dá)到簡化網(wǎng)絡(luò)的目的,同時(shí)也能在一定程度上控制網(wǎng)絡(luò)過擬合。對于Pooling層來說,如果有N個(gè)輸入圖像,那么也將輸出N個(gè)輸出圖像。在完成卷積特征提取之后,對于每一個(gè)隱藏單元,都提取到一張?zhí)卣鲌D,把每一張?zhí)卣鲌D看做一個(gè)矩陣,并在這個(gè)矩陣上通過滑動(dòng)窗口方法劃分出多個(gè)scale×scale的區(qū)域(這些區(qū)域可以是重疊的,也可以是不重疊的,不重疊的方式在實(shí)際操作中更常見),然后對每個(gè)區(qū)域進(jìn)行下采樣操作,最后用這些被下采樣之后的數(shù)據(jù)參與后續(xù)的訓(xùn)練,這個(gè)過程就是池化。Pooling層能有效減少特征數(shù)量、減少參數(shù)數(shù)量,達(dá)到簡化網(wǎng)絡(luò)的目的,同時(shí)還可以讓提取出來的特征具有一定的平移、伸縮不變性。池化層中的下采樣操作一般有以下幾種方法:1)平均池化(Mean-pooling),即對鄰域內(nèi)的特征點(diǎn)求平均值,對背景保留更好;2)最大池化(Max-pooling),即對鄰域內(nèi)的特征點(diǎn)取最大值,對紋理提取更好;3)隨機(jī)池化(Stochastic-pooling),通過對鄰域內(nèi)的特征點(diǎn)按照數(shù)值大小賦予概率,再按照概率進(jìn)行下采樣。5.典型網(wǎng)絡(luò)結(jié)構(gòu)——LeNet
LeNet誕生于1994年,由卷積神經(jīng)網(wǎng)絡(luò)之父YannLeCun提出,該網(wǎng)絡(luò)主要用來進(jìn)行手寫字符的識別與分類,可以達(dá)到98%的準(zhǔn)確率,在銀行和郵局等場所,有著廣泛的應(yīng)用。它是最早發(fā)布的卷積神經(jīng)網(wǎng)絡(luò)之一,因其在計(jì)算機(jī)視覺任務(wù)中的高效性能而受到廣泛關(guān)注。LeNet5網(wǎng)絡(luò)是一個(gè)比較簡單的卷積網(wǎng)絡(luò),該網(wǎng)絡(luò)共有7層,分別是C1卷積層、S2池化層、C3卷積層、S4池化層、C5卷積層、F6全連接層和輸出層。(1)輸入層:輸入一張32×32的圖片。(2)C1卷積層:使用6個(gè)5×5大小的卷積核對輸入圖片進(jìn)行卷積運(yùn)算,得到6個(gè)28×28大小的特征圖。(3)S2池化層:對C1卷積層的輸出進(jìn)行2×2大小的最大池化操作,得到6個(gè)14×14大小的特征圖。(4)C3卷積層:使用16個(gè)5×5大小的卷積核對S2池化層的輸出進(jìn)行卷積運(yùn)算,得到16個(gè)10×10大小的特征圖。(5)S4池化層:對C3卷積層的輸出進(jìn)行2×2大小的最大池化操作,得到16個(gè)5×5大小的特征圖。(6)C5卷積層:使用120個(gè)5×5大小的卷積核對S4池化層的輸出進(jìn)行卷積運(yùn)算,得到120個(gè)1×1大小的特征圖。(7)F6全連接層:使用全連接層對C5卷積層的輸出進(jìn)行全連接運(yùn)算,得到長度為84的特征向量。(8)輸出層:使用全連接層對F6全連接層的輸出進(jìn)行全連接運(yùn)算,得到長度為10的分類結(jié)果。6.典型網(wǎng)絡(luò)結(jié)構(gòu)——AlexNet2012年,AlexNet橫空出世。它首次證明了學(xué)習(xí)到的特征可以超越手工設(shè)計(jì)的特征。它一舉打破了計(jì)算機(jī)視覺研究的現(xiàn)狀。AlexNet使用了8層卷積神經(jīng)網(wǎng)絡(luò),并以很大的優(yōu)勢贏得了2012年ImageNet圖像識別挑戰(zhàn)賽。AlexNet秉承LeNet的思想,把CNN的基本原理應(yīng)用到了很深很寬的網(wǎng)絡(luò)中,且首次在CNN中成功應(yīng)用了ReLU激活函數(shù)和Dropout抑制過擬合等技巧,同時(shí)AlexNet也使用了GPU運(yùn)算加速技術(shù)。AlexNet的網(wǎng)絡(luò)由5個(gè)卷積層、3個(gè)池化層和3個(gè)全連接層構(gòu)成。7.典型網(wǎng)絡(luò)結(jié)構(gòu)——ResNet殘差神經(jīng)網(wǎng)絡(luò)的主要貢獻(xiàn)是發(fā)現(xiàn)了“退化現(xiàn)象(Degradation)”,并針對退化現(xiàn)象發(fā)明了“快捷連接(Shortcutconnection)”,極大的緩解了深度過大的神經(jīng)網(wǎng)絡(luò)訓(xùn)練困難的問題。神經(jīng)網(wǎng)絡(luò)的“深度”首次突破了100層、最大的神經(jīng)網(wǎng)絡(luò)甚至超過了1000層。在2012年的ILSVRC挑戰(zhàn)賽中,AlexNet取得了冠軍,并且大幅度領(lǐng)先于第二名。由此引發(fā)了對AlexNet廣泛研究,并讓大家樹立了一個(gè)信念——“越深的網(wǎng)絡(luò),準(zhǔn)確率越高”。ResNet的殘差塊的“跳躍連接”結(jié)構(gòu)如左所示,沿用了VGG完整的3×3卷積層設(shè)計(jì)。殘差塊里首先有2個(gè)輸出通道數(shù)相同的3×3卷積層,每個(gè)卷積層后接一個(gè)批量規(guī)范化層和ReLU激活函數(shù),然后通過跨層數(shù)據(jù)通路,跳過這2個(gè)卷積運(yùn)算,將輸入直接加在最后的ReLU激活函數(shù)前。這樣的設(shè)計(jì)要求2個(gè)卷積層的輸出與輸入形狀一樣,從而使它們可以相加。PART
2循環(huán)神經(jīng)網(wǎng)絡(luò)PART02RecurrentNeuralNetwork
循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)是一種主要用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)可以提取網(wǎng)格化數(shù)據(jù)中的特征(可以將其看作提取輸入數(shù)據(jù)中的空間特征),類似地,循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于提取序列特征(可以將其看作是提取輸入數(shù)據(jù)中的時(shí)間特征)。如果網(wǎng)絡(luò)中沒有全連接層,卷積神經(jīng)網(wǎng)絡(luò)可以處理任意尺寸的圖像輸入;與之類似,循環(huán)神經(jīng)網(wǎng)絡(luò)也可以擴(kuò)展到更長的序列,大多數(shù)循環(huán)神經(jīng)網(wǎng)絡(luò)也可以處理可變長度的序列。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種節(jié)點(diǎn)定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)的內(nèi)部狀態(tài)可以展示動(dòng)態(tài)時(shí)序行為。由于其結(jié)構(gòu)的特殊性(網(wǎng)路中存在環(huán)狀結(jié)構(gòu)),循環(huán)神經(jīng)網(wǎng)絡(luò)的輸出不僅受到當(dāng)前時(shí)刻輸入信號的影響,同樣也受到之前時(shí)刻輸入信號的影響,這使得循環(huán)神經(jīng)網(wǎng)絡(luò)能夠用于處理和預(yù)測序列數(shù)據(jù)。
左圖展示了一個(gè)簡單的循環(huán)神經(jīng)網(wǎng)絡(luò)內(nèi)部結(jié)點(diǎn)的示例,其中x表
示網(wǎng)絡(luò)當(dāng)前時(shí)刻的輸入,s表示結(jié)點(diǎn)的隱藏狀態(tài),h是結(jié)點(diǎn)的輸出。1.基本原理RNN展開示意圖RNN結(jié)點(diǎn)內(nèi)部結(jié)構(gòu)
2.典型網(wǎng)絡(luò)結(jié)構(gòu)一個(gè)輸入對應(yīng)多個(gè)輸出的RNN結(jié)構(gòu)多個(gè)輸入對應(yīng)一個(gè)輸出的RNN結(jié)構(gòu)多個(gè)輸入對應(yīng)多個(gè)輸出(時(shí)間序列預(yù)測)的RNN多個(gè)輸入對應(yīng)多個(gè)輸出(機(jī)器翻譯)的RNN
PART
3注意力機(jī)制PART03AttentionMechanism??1.認(rèn)知神經(jīng)學(xué)中的注意力注意力是一種人類不可或缺的復(fù)雜認(rèn)知功能,指人可以在關(guān)注一些信息的同時(shí)忽略另外一些信息的能力。在日常生活中,我們通過視覺、聽覺、觸覺等方式接收大量的輸入信息,但是人腦還能在這些外界的信息轟炸中有條不紊地工作,是因?yàn)槿四X可以有意或無意地從這些大量輸入信息中選擇小部分的有用信息來重點(diǎn)處理,并忽略其他信息,這種能力稱為注意力(Attention)。(1)自上而下的有意識的注意力,稱為聚焦式注意力(FocusAttention)。聚焦式注意力是一種有目的地、依賴任務(wù)地并且主動(dòng)有意識地聚焦于某一對象的注意力。(2)自下而上的無意識的注意力,稱為基于顯著性的注意力(SaliencyBasedAttention)?;陲@著性的注意力是一種由外界刺激驅(qū)動(dòng)的注意力,不需要主動(dòng)干預(yù)且和任務(wù)無關(guān)。如果一個(gè)對象的刺激信息不同于其周圍信息,一種無意識的“贏者通吃”(Winner-Take-All)或者門控(Gating)機(jī)制就可以把注意力轉(zhuǎn)向這個(gè)對象。不管這些注意力是有意的還是無意的,大部分的人腦活動(dòng)都需要依賴注意力,比如記憶信息、閱讀或思考等。
3.自注意力如果要建立輸入序列之間的長距離依賴關(guān)系,可以使用以下兩種方法:一種方法是增加網(wǎng)絡(luò)的層數(shù),通過一個(gè)深層網(wǎng)絡(luò)來獲取遠(yuǎn)距離的信息交互;另一種方法是使用全連接網(wǎng)絡(luò),全連接網(wǎng)絡(luò)是一種非常直接的建模遠(yuǎn)距離依賴的模型,但是無法處理變長的輸入序列。不同的輸入長度,其連接權(quán)重的大小也是不同的,這時(shí)可以利用注意力機(jī)制來“動(dòng)態(tài)”地生成不同連接的權(quán)重,即自注意力模型(Self-AttentionModel)。為了提高模型能力,自注意力模型通常采用查詢-鍵-值(Query-Key-Value,QKV)模式。
謝謝觀看THANK
YOUPPT下載/xiazai/第九章:模式識別在圖像處理中的應(yīng)用與發(fā)展模式識別及Python實(shí)現(xiàn)前言PREFACE模式識別是近30年來發(fā)展迅速的人工智能學(xué)科分支之一,作為一門交叉學(xué)科,不僅與統(tǒng)計(jì)學(xué)、計(jì)算機(jī)科學(xué)、生物學(xué)以及控制科學(xué)等有關(guān)系,同時(shí)與圖像處理的研究有著廣泛而深入的交叉關(guān)系。模式識別在圖像領(lǐng)域的應(yīng)用非常廣泛,成為了模式識別應(yīng)用研究的熱點(diǎn)。比如,醫(yī)學(xué)領(lǐng)域的醫(yī)學(xué)圖像分析、工業(yè)領(lǐng)域的產(chǎn)品缺陷檢測、交通領(lǐng)域的自動(dòng)駕駛、安全領(lǐng)域的各類生物特征識別等等。為此,本章主要從模式識別在圖像分類、材料微觀組織分析、人耳識別等方面的典型應(yīng)用以及大模型的發(fā)展趨勢展開介紹。123圖像分類(CIFAR-10)微觀組織圖像分割系統(tǒng)人耳識別系統(tǒng)設(shè)計(jì)目錄
CONTENT4大模型網(wǎng)絡(luò)及其應(yīng)用PART
1圖像分類(CIFAR-10)PART01??ImageClassification??1.獲取并組織數(shù)據(jù)集使用CIFAR-10數(shù)據(jù)集,CIFAR-10是計(jì)算機(jī)視覺領(lǐng)域中的一個(gè)重要的數(shù)據(jù)集。本節(jié)將運(yùn)用在前幾章中學(xué)到的知識參加CIFAR-10圖像分類問題的Kaggle競賽,比賽的網(wǎng)址是/c/cifar-10。比賽數(shù)據(jù)集分為訓(xùn)練集和測試集,其中訓(xùn)練集包含50000張圖像、測試集包含300000張圖像。在測試集中,10000張圖像將被用于評估,而剩下的290000張圖像不會被進(jìn)行評估,包含它們只是為了防止手動(dòng)標(biāo)記測試集并提交標(biāo)記結(jié)果。兩個(gè)數(shù)據(jù)集中的圖像都是png格式,高度和寬度均為32像素并有三個(gè)顏色通道(RGB)。這些圖片共涵蓋10個(gè)類別:飛機(jī)、汽車、鳥類、貓、鹿、狗、青蛙、馬、船和卡車。2.圖像增廣一般使用圖像增廣來解決過擬合的問題。例如在訓(xùn)練中,可以隨機(jī)水平翻轉(zhuǎn)圖像,還可以對彩色圖像的RGB通道執(zhí)行標(biāo)準(zhǔn)化。下面,我們列出了其中一些可以調(diào)整的操作。在測試期間,只對圖像執(zhí)行標(biāo)準(zhǔn)化,以消除評估結(jié)果中的隨機(jī)性。transform_train
=
torchvision.transforms.Compose([
#
在高度和寬度上將圖像放大到40像素的正方形
torchvision.transforms.Resize(40),
#
隨機(jī)裁剪出一個(gè)高度和寬度均為40像素的正方形圖像,
#
生成一個(gè)面積為原始圖像面積0.64~1倍的小正方形,
#
然后將其縮放為高度和寬度均為32像素的正方形
torchvision.transforms.RandomResizedCrop(32,
scale=(0.64,
1.0),ratio=(1.0,
1.0)),
torchvision.transforms.RandomHorizontalFlip(),
torchvision.transforms.ToTensor(),
#
標(biāo)準(zhǔn)化圖像的每個(gè)通道
torchvision.transforms.Normalize([0.4914,
0.4822,
0.4465],[0.2023,
0.1994,
0.2010])])
transform_test
=
torchvision.transforms.Compose([
torchvision.transforms.ToTensor(),
torchvision.transforms.Normalize([0.4914,
0.4822,
0.4465],[0.2023,
0.1994,
0.2010])])
2.讀取數(shù)據(jù)集讀取由原始圖像組成的數(shù)據(jù)集,每個(gè)樣本包括一張圖片和一個(gè)標(biāo)簽。在訓(xùn)練期間,需要指定所有圖像增廣操作。當(dāng)驗(yàn)證集在超參數(shù)調(diào)整過程中用于模型評估時(shí),不應(yīng)引入圖像增廣的隨機(jī)性。在最終預(yù)測之前,根據(jù)訓(xùn)練集和驗(yàn)證集組合而成的訓(xùn)練模型進(jìn)行訓(xùn)練,以充分利用所有標(biāo)記的數(shù)據(jù)。train_ds,train_valid_ds=[torchvision.datasets.ImageFolder(os.path.join(data_dir,'train_valid_test',folder),transform=transform_train)forfolderin['train','train_valid']]
valid_ds,test_ds=[torchvision.datasets.ImageFolder(os.path.join(data_dir,'train_valid_test',folder),transform=transform_test)forfolderin['valid','test’]]train_iter,train_valid_iter=[torch.utils.data.DataLoader(dataset,batch_size,shuffle=True,drop_last=True)fordatasetin(train_ds,train_valid_ds)]
valid_iter=torch.utils.data.DataLoader(valid_ds,batch_size,shuffle=False,drop_last=True)
test_iter=torch.utils.data.DataLoader(test_ds,batch_size,shuffle=False,drop_last=False)4.定義模型和訓(xùn)練函數(shù)importtorchfromtorchimportnnfromtorch.nnimportfunctionalasFfromd2limporttorchasd2l
classResidual(nn.Module):#@savedef__init__(self,input_channels,num_channels,use_1x1conv=False,strides=1):super().__init__()self.conv1=nn.Conv2d(input_channels,num_channels,kernel_size=3,padding=1,stride=strides)self.conv2=nn.Conv2d(num_channels,num_channels,kernel_size=3,padding=1)ifuse_1x1conv:self.conv3=nn.Conv2d(input_channels,num_channels,kernel_size=1,stride=strides)else:self.conv3=Noneself.bn1=nn.BatchNorm2d(num_channels)self.bn2=nn.BatchNorm2d(num_channels)
defforward(self,X):Y=F.relu(self.bn1(self.conv1(X)))Y=self.bn2(self.conv2(Y))ifself.conv3:X=self.conv3(X)Y+=XreturnF.relu(Y)使用D2l庫中自帶的ResNet18類定義模型defget_net():num_classes=10net=d2l.resnet18(num_classes,3)returnnetloss=nn.CrossEntropyLoss(reduction="none")deftrain(net,train_iter,valid_iter,num_epochs,lr,wd,devices,lr_period,lr_decay):trainer=torch.optim.SGD(net.parameters(),lr=lr,momentum=0.9,weight_decay=wd)scheduler=torch.optim.lr_scheduler.StepLR(trainer,lr_period,lr_decay)num_batches,timer=len(train_iter),d2l.Timer()legend=['trainloss','trainacc’]ifvalid_iterisnotNone:legend.append('validacc')animator=d2l.Animator(xlabel='epoch',xlim=[1,num_epochs],legend=legend)net=nn.DataParallel(net,device_ids=devices).to(devices[0])forepochinrange(num_epochs):net.train()metric=d2l.Accumulator(3)fori,(features,labels)inenumerate(train_iter):timer.start()l,acc=d2l.train_batch_ch13(net,features,labels,loss,trainer,devices)metric.add(l,acc,labels.shape[0])timer.stop()if(i+1)%(num_batches//5)==0ori==num_batches-1:animator.add(epoch+(i+1)/num_batches,(metric[0]/metric[2],metric[1]/metric[2],None))ifvalid_iterisnotNone:valid_acc=d2l.evaluate_accuracy_gpu(net,valid_iter)animator.add(epoch+1,(None,None,valid_acc))scheduler.step()measures=(f'trainloss{metric[0]/metric[2]:.3f},'f'trainacc{metric[1]/metric[2]:.3f}')ifvalid_iterisnotNone:measures+=f',validacc{valid_acc:.3f}'print(measures+f'\n{metric[2]*num_epochs/timer.sum():.1f}'f'examples/secon{str(devices)}')5.訓(xùn)練和驗(yàn)證所有超參數(shù)都可以調(diào)整。例如,可以增加周期的數(shù)量,當(dāng)lr_period和lr_decay分別設(shè)置為4和0.9時(shí),優(yōu)化算法的學(xué)習(xí)速率將在每4個(gè)周期乘以0.9。devices,num_epochs,lr,wd=d2l.try_all_gpus(),20,2e-4,5e-4lr_period,lr_decay,net=4,0.9,get_net()train(net,train_iter,valid_iter,num_epochs,lr,wd,devices,lr_period,lr_decay)net,preds=get_net(),[]train(net,train_valid_iter,None,num_epochs,lr,wd,devices,lr_period,lr_decay)
forX,_intest_iter:y_hat=net(X.to(devices[0]))preds.extend(y_hat.argmax(dim=1).type(32).cpu().numpy())sorted_ids=list(range(1,len(test_ds)+1))sorted_ids.sort(key=lambdax:str(x))df=pd.DataFrame({'id':sorted_ids,'label':preds})df['label']=df['label'].apply(lambdax:train_valid_ds.classes[x])df.to_csv('submission.csv',index=False)PART
2微觀組織圖像分割系統(tǒng)PART02MicrostructureImageSegmentationSystem材料微觀組織結(jié)構(gòu)與其性能之間有密切的聯(lián)系。通過對微觀組織圖像分析來預(yù)測材料的相關(guān)性能是材料研究的重要方法,也是模式識別技術(shù)在圖像處理方面的典型應(yīng)用。傳統(tǒng)的微觀組織分析主要通過人工操作,分析過程受主觀因素影響,且費(fèi)時(shí)費(fèi)力。隨著圖像處理技術(shù)在材料領(lǐng)域的應(yīng)用不斷拓展,自動(dòng)化和精度更高且不受人為因素影響的微觀組織圖像分析技術(shù)被提出,大大提升了材料分析的效率。1.圖像預(yù)處理金相組織在試樣制備和圖像采集的過程中,受人為操作失誤、環(huán)境噪聲和設(shè)備精度等影響,常常出現(xiàn)圖像失真、噪聲干擾等現(xiàn)象,這會影響材料微觀組織的識別、測定和性能的評估工作。所以在對材料微觀組織圖像分析之前,需要對其預(yù)處理來去除噪聲,提升圖像質(zhì)量,預(yù)處理操作包括濾波、Retinex算法、拉普拉斯銳化、直方圖均衡化等。(1)濾波均值濾波是一種局部空間的線性濾波技術(shù)。濾波后圖像的像素值都是其核窗口內(nèi)圖像像素的平均值。均值濾波不能保持圖像的細(xì)節(jié)信息,尤其是圖像的邊緣信息,使圖像本身變得模糊,對于噪聲點(diǎn)的濾除能力也比較有限。其在Python的OpenCV庫中的函數(shù)如下:importcv2result=cv2.blur(img,(ksize,ksize))#img:待處理圖像ksize:核大小
result=cv2.GaussianBlur(img,(ksize,ksize),sigma)#sigma:標(biāo)準(zhǔn)差中值濾波是一種非常典型的非線性濾波算法。其基本思想是在選定范圍內(nèi),用所有像素點(diǎn)的灰度中值代替原有像素點(diǎn)灰度值。中值濾波對于椒鹽噪聲有較好的抑制作用。相對于均值濾波而言,中值濾波可以比較好地保留圖像細(xì)節(jié),可以一定程度上克服圖像模糊的問題。但是對于細(xì)節(jié)紋理較多的材料微觀組織圖像,中值濾波去噪效果依然不太理想。result=cv2.medianBlur(img,ksize)(a)原圖(b)均值濾波(c)高斯濾波(d)中值濾波(2)Retinex算法受圖像采集環(huán)境的影響,實(shí)際材料微觀組織圖像常常存在光照不均的問題。Retinex算法通過去除或降低原始圖像中入射光照的影響,從而盡量得到反射物體的本質(zhì)圖像。由于Retinex算法需要在顏色保真度和細(xì)節(jié)保持度上追求完美的平衡,而這個(gè)平衡在應(yīng)對不同圖像的時(shí)候一般都有差別。針對這個(gè)情況,多尺度的Retinex算法(MSR)被提出,即對一幅圖像在不同的尺度上采用單尺度Retinex算法處理,然后在對不同尺度上的處理結(jié)果進(jìn)行加權(quán)求和,獲得所估計(jì)的照度圖像。(a)原圖(b)原圖二值化(c)Retinex算法(d)Retinex處理后二值化(3)拉普拉斯銳化拉普拉斯銳化根據(jù)圖像某個(gè)像素的周圍像素到此像素的突變程度,即圖像像素的變化程度來決定銳化效果。當(dāng)中心像素灰度低于它所在的領(lǐng)域內(nèi)其它像素的平均灰度時(shí),此中心像素的灰度應(yīng)被進(jìn)一步降低,當(dāng)中心像素灰度高于它所在的鄰域內(nèi)其它像素的平均灰度時(shí),此中心像素的灰度應(yīng)被進(jìn)一步提高。材料微觀組織圖像中具有重要信息的部分(如晶界),像素突變程度較大,通過拉普拉斯銳化可以拉大其差異,使重要信息更易于提取,但也會使噪聲增強(qiáng)。(a)原圖(b)拉普拉斯銳化
(a)原圖(b)原圖直方圖(c)直方圖均衡化(d)處理后的直方圖2.圖像分割根據(jù)灰度、色彩、空間紋理、幾何形狀等特征信息將圖像分為多個(gè)區(qū)域,這些區(qū)域內(nèi)部的像素點(diǎn)具有相似性,不同區(qū)域的像素點(diǎn)具有明顯差異性。圖像分割用于材料微觀組織圖像,將感興趣目標(biāo)從背景中提取出來,便于后續(xù)對目標(biāo)組織的測量與評估。(1)基于閾值的分割基于閾值的分割方法中最經(jīng)典的是大津法,又稱最大類間方差法,大津法按圖像的灰度特性,將圖像分成目標(biāo)和背景兩部分,方差是分布均勻性的一種度量,目標(biāo)和背景之間的類間方差越大,說明二者的差異越大。大律法計(jì)算簡單且不受圖像亮度和對比度的影響,是求圖像全局閾值的最佳方法,所以應(yīng)用較為廣泛。
(a)原圖(b)大律法(2)基于區(qū)域的分割區(qū)域生長法是一種應(yīng)用較為廣泛的基于區(qū)域的分割方法。區(qū)域生長法從一個(gè)種子點(diǎn)出發(fā),按照規(guī)定好的相似性準(zhǔn)則合并種子點(diǎn)鄰域內(nèi)符合準(zhǔn)則的像素點(diǎn),完成一次生長的過程,然后以生長后的區(qū)域?yàn)槠瘘c(diǎn)繼續(xù)生長,直到領(lǐng)域內(nèi)無符合準(zhǔn)則的像素點(diǎn)為止。相似性準(zhǔn)則可以是灰度值、色彩、紋理、梯度等特征信息。生長結(jié)束后,劃分出了一個(gè)具有相似特征的區(qū)域,達(dá)到了分割的目的。材料微觀組織圖像中目標(biāo)內(nèi)部具有相似的特征,且大部分為較均勻的連通目標(biāo),采用區(qū)域生長法可以得到較好的分割結(jié)果。區(qū)域生長法的缺點(diǎn)包括需要人為選取種子點(diǎn),且分割結(jié)果受初始種子點(diǎn)的影響較大;對噪聲比較敏感,分割結(jié)果內(nèi)部可能存在空洞;當(dāng)分割目標(biāo)較大時(shí),分割速度慢。(3)分水嶺算法分水嶺算法是一種基于拓?fù)淅碚摰臄?shù)學(xué)形態(tài)學(xué)分割算法,其基本思想是把圖像看作地形,像素點(diǎn)的灰度值大小對應(yīng)該點(diǎn)的海拔高低,如圖9-8所示?;叶戎档臉O小值區(qū)域被看成集水盆地,分割盆地的邊界被稱為分水嶺。分水嶺算法過程可以看作水面上升淹沒盆地的過程:各盆地底部水面不斷上升,淹沒區(qū)域向外擴(kuò)展;當(dāng)來自不同盆地的水即將發(fā)生接觸時(shí),在分水嶺上建立堤壩阻止其匯合;直至所有區(qū)域被淹沒,不同盆地之間的堤壩分割了整個(gè)區(qū)域,便得到了分割結(jié)果。(a)原圖(b)分水嶺算法分割結(jié)果
(a)原圖(b)Sobel算子(c)Prewitt算子(d)Canny算子(5)基于聚類的分割聚類依據(jù)同一類中對象相似程度高,不同類中對象相似程度低,將樣本按照相似程度分成不同的類。相似度評定的選擇對于聚類十分重要,選用的評定準(zhǔn)則決定了相似度的偏向。將聚類方法用于圖像分割,每個(gè)像素點(diǎn)就是一個(gè)帶有橫縱坐標(biāo)、灰度值或RGB值信息的多維樣本點(diǎn)。聚類將圖像中像素點(diǎn)劃分為若干類,實(shí)現(xiàn)了圖像的分割。K-均值(K-means)是一種應(yīng)用廣泛的聚類算法。它將樣本點(diǎn)到聚類中心的距離作為優(yōu)化的目標(biāo),利用函數(shù)求極值的方式得到最優(yōu)聚類結(jié)果。K-均值用于灰度圖像分割的過程包括:將所有像素點(diǎn)轉(zhuǎn)化為具有橫縱坐標(biāo)、灰度值的樣本點(diǎn);所有樣本點(diǎn)歸一化;從中選取K個(gè)樣本點(diǎn)作為初始聚類中心,計(jì)算所有未歸類點(diǎn)到所有聚類中心的歐氏距離;將未歸類點(diǎn)劃為與其距離最近的聚類中心的類中;計(jì)算各類中所有點(diǎn)的中心作為新的聚類中心,再次對所有點(diǎn)進(jìn)行劃分;直到新的聚類中心和上次設(shè)定的聚類中心距離小于設(shè)定的閾值為止。(6)基于深度學(xué)習(xí)的分割UNet網(wǎng)絡(luò)作為一種語義分割網(wǎng)絡(luò),因其優(yōu)異的分割性能,從被提出以來在許多領(lǐng)域有著廣泛的應(yīng)用和改良。UNet主要由一個(gè)收縮路徑和一個(gè)對稱擴(kuò)張路徑組成,收縮路徑是一個(gè)由兩個(gè)3×3的卷積層再加上一個(gè)2×2的最大池化層組成的下采樣模塊,用來提取特征,獲得上下文信息;對稱擴(kuò)張路徑由一個(gè)上采樣的去卷積層和兩個(gè)3×3的卷積層反復(fù)構(gòu)成,用來精確定位分割邊界。同時(shí),收縮路徑和擴(kuò)張路徑相同層級之間通過特征拼接連接,可以形成更厚的特征,但是會導(dǎo)致計(jì)算量的增加。UNet網(wǎng)絡(luò)使用圖像切塊進(jìn)行訓(xùn)練,所以訓(xùn)練數(shù)據(jù)量遠(yuǎn)遠(yuǎn)大于訓(xùn)練圖像的數(shù)量,這使得網(wǎng)絡(luò)在少量樣本的情況下也能獲得不變性和魯棒性。PART
3人耳識別系統(tǒng)設(shè)計(jì)PART03EarRecognitionSystemDesign??人耳識別技術(shù)是一種生物識別技術(shù),通過對人耳形狀、大小、結(jié)構(gòu)的分析,提取耳朵的生物特征信息,并與數(shù)據(jù)庫中的人耳圖像進(jìn)行匹配,實(shí)現(xiàn)對個(gè)人身份的識別和驗(yàn)證。它與指紋、虹膜、面部等生物識別技術(shù)類似,但依靠的是人耳這種獨(dú)一無二的身體特征。人耳的形狀和結(jié)構(gòu)在出生時(shí)就已基本定型,是一個(gè)高度穩(wěn)定的結(jié)構(gòu)。同一人的左右耳結(jié)構(gòu)存在細(xì)微的差異,即使是一卵生雙胞胎,耳部結(jié)構(gòu)也有明顯的不對稱性。與面部不同,耳朵不會因?yàn)楸砬椤⒒瘖y、角度變化而產(chǎn)生很大差異,且外耳部分少有軟組織覆蓋,不易被改變。隨著年齡增長,耳朵的生長趨勢非常緩慢,保持了很高的結(jié)構(gòu)相似性。正因如此,耳形成為一個(gè)信息量豐富而又穩(wěn)定的生物識別特征。早在20世紀(jì)60年代,利用耳形進(jìn)行人員識別的研究就已經(jīng)開始。當(dāng)時(shí)主要采用基于知識的方法,人工提取耳朵的大小、輪廓等幾何特征,然后計(jì)算特征之間的距離進(jìn)行匹配。這類方法易受姿態(tài)變化和遮擋的影響。21世紀(jì)以后,隨著圖像處理技術(shù)的進(jìn)步,采用基于圖像的特征提取和匹配成為主流。常用的算法包括SIFT運(yùn)算法提取局部特征,LBP方法提取紋理特征等。這些手工設(shè)計(jì)的特征通常需要結(jié)合SVM、KNN等分類模型使用。近年來,隨著深度學(xué)習(xí)的興起,利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行端到端特征學(xué)習(xí)與人耳匹配成為熱點(diǎn)方向。這類
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年現(xiàn)代農(nóng)業(yè)灌溉技術(shù)創(chuàng)新報(bào)告及水資源優(yōu)化利用報(bào)告
- 2025年建立醫(yī)療服務(wù)收費(fèi)自查自糾制度
- 跨境電商物流實(shí)務(wù)操作規(guī)程
- 事業(yè)單位招聘報(bào)名表填寫指南及范例
- 客服中心工作流程與標(biāo)準(zhǔn)服務(wù)規(guī)范
- 物業(yè)費(fèi)收繳流程及客戶關(guān)系維護(hù)策略
- 小升初英語模擬試題及解答
- 哮喘病護(hù)理流程與患者自我管理指導(dǎo)
- 幼兒飲食健康教育與常見問題應(yīng)對
- 生產(chǎn)質(zhì)量管理五大核心措施
- 社區(qū)救援員培訓(xùn)課件
- 機(jī)房用電安全管理培訓(xùn)課件
- 2026秋招:華夏銀行筆試題及答案
- 便攜式血糖儀培訓(xùn)課件
- 醫(yī)院物價(jià)制度培訓(xùn)課件
- 2026年通遼職業(yè)學(xué)院單招職業(yè)技能考試題庫附答案
- 2025年精麻藥品考試試題附答案
- 2025年宿遷市輔警考試真題及答案
- 山東省青島嶗山區(qū)2024-2025學(xué)年上學(xué)期八年級數(shù)學(xué)期末試題(含答案)
- 眼外傷課件教學(xué)課件
- 顎式破碎機(jī)機(jī)構(gòu)優(yōu)化設(shè)計(jì)
評論
0/150
提交評論