深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第6章 圖像分類_第1頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第6章 圖像分類_第2頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第6章 圖像分類_第3頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第6章 圖像分類_第4頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 第6章 圖像分類_第5頁
已閱讀5頁,還剩72頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

目錄1圖像分類的介紹01任務(wù)圖像分類的應(yīng)用02任務(wù)圖像分類的挑戰(zhàn)03任務(wù)圖像分類的方法04任務(wù)1圖像分類的介紹1圖像分類的介紹圖像分類是將整幅圖像分類為單個標(biāo)簽的任務(wù)。例如,如果給定的圖像是狗或貓,圖像分類任務(wù)就可以將圖像標(biāo)記為狗或貓。本章將介紹如何使用TensorFlow來建立這樣的圖像分類模型,并學(xué)習(xí)提高分類準(zhǔn)確率的技術(shù)。圖像分類的目標(biāo)就是將不同圖片劃分到不同類別,實現(xiàn)最小的分類誤差。2圖像分類的應(yīng)用2圖像分類的應(yīng)用圖像分類是以一定的可信度用一個對象或概念對整幅圖像打標(biāo)簽的任務(wù)。它的應(yīng)用包括根據(jù)給定人臉圖像進行性別分類、識別寵物類型、標(biāo)記照片等。2圖像分類概述圖片分類技術(shù)是計算機視覺中重要的基本問題,是目標(biāo)檢測,圖像分割,物體追蹤等視覺任務(wù)的基礎(chǔ)。圖像分類有廣泛的應(yīng)用,如網(wǎng)盤圖片自動分類,卡片類別識別,動植物識別等。3圖像分類的挑戰(zhàn)3圖像分類的挑戰(zhàn)圖像分類問題受各種因素的影響,模型的性能主要面臨一下幾種挑戰(zhàn):(1)類內(nèi)變化:類內(nèi)差異是同一類圖像之間的差異。(2)比例變化:同一對象的圖像具有多種大小,且可能大小差異很大。(3)視點變化:視點變化即相對于如何在圖像中拍攝和捕獲對象。(4)遮擋:圖像中分類對象無法完全查看,很大一部分隱藏在其他對象的后面。(5)光照條件:由于照明強度不同,在圖像中像素的強度級別也有所不同。(6)背景:如果圖中有很多對象,找到特定對象非常困難4圖像分類方法4圖像分類的方法按照圖像分類的發(fā)展過程劃分,圖像分類可以分為傳統(tǒng)圖像分類和深度學(xué)習(xí)圖像分類。(1)傳統(tǒng)的圖像分類方法傳統(tǒng)的圖像分類方法有很多,如使用近鄰分類器(NearestNeighborClassifier),將測試圖片與訓(xùn)練集中的每個圖片去對比,將差別最小的那個類的標(biāo)簽,作為預(yù)測結(jié)果。即將兩張圖片的像素矩陣相減,得出插值矩陣求值。3圖像分類的類型(2)深度學(xué)習(xí)圖像分類方法圖像分類從傳統(tǒng)方法到基于深度學(xué)習(xí)的方法,得益于計算機算力的提升。

LeNet-5是使用深度學(xué)習(xí)方法處理圖像分類的卷積神經(jīng)網(wǎng)絡(luò)。又隨著ImageNet數(shù)據(jù)集分類大賽的舉辦,出現(xiàn)了大量的高性能圖像分類模型。如AlexNet、GoogLeNet、VGGNet、ResNet等。ThankYOU!目錄1二分類概念01任務(wù)二分類問題評價指標(biāo)02任務(wù)二分類問題損失函數(shù)03任務(wù)1二分類概念1二分類概念二分類(BinaryClassification),是應(yīng)用最廣泛的機器學(xué)習(xí)問題,它指的是所有數(shù)據(jù)的標(biāo)簽就只有兩種,正面或者負面。比如電影評論文本分類、垃圾郵件分類、貓狗圖像分類等。2二分類問題評價指標(biāo)2二分類問題評價指標(biāo)二分類模型常用的模型評價指標(biāo)有準(zhǔn)確率、精確率、召回率等。(1)準(zhǔn)確率是最常用的評價分類問題的性能指標(biāo),其定義是對于給定的數(shù)據(jù),分類正確的樣本數(shù)占總樣本數(shù)的比例。2二分類問題評價指標(biāo)缺點:對于數(shù)據(jù)不均衡的數(shù)據(jù)集,使用準(zhǔn)確率評估模型的性能會缺少一定的說服力。比如一個數(shù)據(jù)集,有990正樣本,10個負樣本,如果模型把樣本全部都預(yù)測成正樣本,那么我們說模型的準(zhǔn)確率是99%,從計算上看是沒問題的,但是當(dāng)樣本不均衡時,只使用準(zhǔn)確率來評價一個模型的好壞是不夠的。2二分類問題評價指標(biāo)(2)精確率和召回率對于二分類問題常用的評價指標(biāo)是精確率和召回率。通常以關(guān)注的類為正類,其他類為負類,分類器在數(shù)據(jù)集上的預(yù)測或者正確或者不正確,我們有4種情況,在混淆矩陣中表示如下:P(Positive):代表正例,表示為1N(Negative):代表負例,表示為0T(True):代表預(yù)測正確F(False):代表預(yù)測錯誤2二分類問題評價指標(biāo)二分類問題的預(yù)測結(jié)果可以分成以下四類:真正例(TP):預(yù)測值為1,真實值為1假正例(FP):預(yù)測值為1,真實值為0真反例(TN):預(yù)測值為0,真實值為0假反例(FN):預(yù)測值為0,真實值為12二分類問題評價指標(biāo)精確率(Precision)表示分類正確的正樣本個數(shù)(TP)占分類器判定為正樣本的樣本個數(shù)(TP+FP)的比例,公式如下:2二分類問題評價指標(biāo)召回率(Recall)是指分類正確的正樣本個數(shù)(TP)占真正的正樣本個數(shù)(TP+FN)的比例,公式如下:2二分類問題評價指標(biāo)每個評價指標(biāo)都有其價值,但如果只從單一的評估指標(biāo)出發(fā)去評估模型,往往會得出片面甚至錯誤的結(jié)論;只有通過一組互補的指標(biāo)去評估模型,才能更好地發(fā)現(xiàn)并解決模型存在的問題,從而更好地解決實際業(yè)務(wù)場景中遇到的問題。3二分類問題損失函數(shù)3二分類問題損失函數(shù)二分類問題中,常見的損失函數(shù)有負對數(shù)似然損失(neglog-likelihoodloss)、交叉熵損失(crossentropyloss)、指數(shù)損失(exponentialloss)等。在分類場景下,最常見的損失函數(shù)是交叉熵損失函數(shù)(CrossEntropyLoss),二分類問題使用二分類交叉熵損失函數(shù)。3二分類問題損失函數(shù)在二分的情況下,模型最后需要預(yù)測的結(jié)果只有兩種情況,對于每個類別我們的預(yù)測得到的概率為p和1-p,此時表達式為:其中:yi表示樣本i的label,正類為1,負類為0;pi

表示樣本i預(yù)測為正類的概率。ThankYOU!目錄1案例目標(biāo)01任務(wù)環(huán)境配置02任務(wù)案例實施04任務(wù)案例分析02任務(wù)03任務(wù)1案例目標(biāo)案例目標(biāo)理解圖像分類中的二分類問題,掌握二分類模型的搭建方法;掌握卷積神經(jīng)網(wǎng)絡(luò)的原理及實現(xiàn)方法;熟悉數(shù)據(jù)的加載以及從文件中生成數(shù)據(jù)集的方法;掌握使用matplotlib工具繪制訓(xùn)練曲線的方法;掌握常用的數(shù)據(jù)增強方法。12案例分析2案例分析本案例使用keras框架實現(xiàn)貓狗圖像分類,本案例屬于圖像二分類問題;本案例使用keras的Sequential方法創(chuàng)建模型;本案例使用preprocessing.image_dataset_from_directory從圖像文件中加載數(shù)據(jù)并生成數(shù)據(jù)集;本案例從指定網(wǎng)址中下載貓狗圖像數(shù)據(jù),數(shù)據(jù)包含約3000張圖像。2案例分析數(shù)據(jù)集分為訓(xùn)練集和驗證集,訓(xùn)練集包含2000張圖像,其中,狗1000張,貓1000張;驗證集包含1000張圖像,其中,狗500張,貓500張。圖像大小不一,在數(shù)據(jù)處理時,需要將圖像大小標(biāo)準(zhǔn)化。下圖展示了訓(xùn)練集部分貓的圖像和狗的圖像。3環(huán)境配置3環(huán)境配置Windows10tensorflow=2.10.0matplotlib=3.6.1numpy=1.23.44案例實施4案例實施部分代碼展示:1、導(dǎo)入庫導(dǎo)入本案例要使用的庫:4案例實施2、下載數(shù)據(jù)集并展示圖像從指定的網(wǎng)址中下載圖像文件并解壓:4案例實施3、將圖像加載到tf.data.dataset中4案例實施展示訓(xùn)練集中的圖像:4案例實施5、將驗證集劃分成測試集和驗證集4案例實施6、搭建卷積神經(jīng)網(wǎng)絡(luò)模型ThankYOU!目錄1多分類概念01任務(wù)多分類問題激活函數(shù)02任務(wù)多分類問題損失函數(shù)03任務(wù)多分類問題評價指標(biāo)04任務(wù)1多分類概念1多分類概念多類分類(MulticlassClassification):表示分類任務(wù)中有多個類別,比如對一堆水果圖片分類,它們可能是橘子、蘋果、梨等,多類分類是假設(shè)每個樣本都被設(shè)置了一個且僅有一個標(biāo)簽。2多分類問題激活函數(shù)2多分類問題激活函數(shù)在設(shè)計多分類問題的深度網(wǎng)絡(luò)時,最后一層網(wǎng)絡(luò)架構(gòu)通常使用Softmax激活函數(shù)(又稱為歸一化指數(shù)函數(shù)),主要是將神經(jīng)網(wǎng)絡(luò)預(yù)測的輸出結(jié)果精確地用概率模型來描述,經(jīng)過Softmax激活函數(shù)后,每個輸出值都介于0和1之間,且保證所有輸出值的總和為1。Softmax函數(shù)公式如下:n:為輸出節(jié)點的個數(shù),即分類的類別個數(shù)。x:輸入向量Softmax(x):預(yù)期輸出i:深度學(xué)習(xí)模型第i個輸出2多分類問題激活函數(shù)Softmax輸出運算:3多分類問題評價指標(biāo)3多分類問題評價指標(biāo)多分類算法常見的評估指標(biāo)如下:多分類的評價指標(biāo)的計算方式與二分類完全一樣,只不過我們計算的是針對于每一類來說的召回率、精確度、準(zhǔn)確率。3多分類問題評價指標(biāo)假如有一份樣本量為9,類別數(shù)為3的含標(biāo)注結(jié)果的三分類預(yù)測樣本,數(shù)據(jù)如下:預(yù)測真實AAAABACABBBBCBBCCC3多分類問題評價指標(biāo)對于A類:TP=2,F(xiàn)P=0,FN=2,那么,準(zhǔn)確率:召回率:4多分類問題損失函數(shù)4多分類問題損失函數(shù)多分類問題是二分類的擴展,常用的損失函數(shù)是多分類交叉熵損失函數(shù)。其中,M:類別的數(shù)量yic:符號函數(shù)(

0

1

),如果樣本

i

的真實類別等于

c

1

,否則取

0

pic:觀測樣本

i

屬于類別c的預(yù)測概率。ThankYOU!目錄1案例目標(biāo)01任務(wù)環(huán)境配置02任務(wù)案例實施04任務(wù)案例分析02任務(wù)03任務(wù)1案例目標(biāo)案例目標(biāo)理解圖像分類中的多分類問題,掌握多分類模型的搭建方法;掌握卷積神經(jīng)網(wǎng)絡(luò)的原理及實現(xiàn)方法;掌握多分類模型激活函數(shù)和損失函數(shù)的使用方法;掌握使用matplotlib工具繪制訓(xùn)練曲線的方法;12案例分析2案例分析本案例使用keras框架實現(xiàn)cifar-10數(shù)據(jù)集圖像分類,案例屬于多分類問題。該數(shù)據(jù)集包含60000張圖像,其中訓(xùn)練集包含50000張圖像,測試集包含10000張圖像,共有十個類別:飛機、汽車、鳥、貓、鹿、狗、青蛙、馬、船、卡車。圖像尺寸為32x32×3,即尺寸為32x32像素的3通道彩色

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論