深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha6 2-二分類問題概述_第1頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha6 2-二分類問題概述_第2頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha6 2-二分類問題概述_第3頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha6 2-二分類問題概述_第4頁
深度學(xué)習(xí)應(yīng)用開發(fā) 課件 cha6 2-二分類問題概述_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

目錄1二分類概念01任務(wù)二分類問題評(píng)價(jià)指標(biāo)02任務(wù)二分類問題損失函數(shù)03任務(wù)1二分類概念1二分類概念二分類(BinaryClassification),是應(yīng)用最廣泛的機(jī)器學(xué)習(xí)問題,它指的是所有數(shù)據(jù)的標(biāo)簽就只有兩種,正面或者負(fù)面。比如電影評(píng)論文本分類、垃圾郵件分類、貓狗圖像分類等。2二分類問題評(píng)價(jià)指標(biāo)2二分類問題評(píng)價(jià)指標(biāo)二分類模型常用的模型評(píng)價(jià)指標(biāo)有準(zhǔn)確率、精確率、召回率等。(1)準(zhǔn)確率是最常用的評(píng)價(jià)分類問題的性能指標(biāo),其定義是對(duì)于給定的數(shù)據(jù),分類正確的樣本數(shù)占總樣本數(shù)的比例。2二分類問題評(píng)價(jià)指標(biāo)缺點(diǎn):對(duì)于數(shù)據(jù)不均衡的數(shù)據(jù)集,使用準(zhǔn)確率評(píng)估模型的性能會(huì)缺少一定的說服力。比如一個(gè)數(shù)據(jù)集,有990正樣本,10個(gè)負(fù)樣本,如果模型把樣本全部都預(yù)測(cè)成正樣本,那么我們說模型的準(zhǔn)確率是99%,從計(jì)算上看是沒問題的,但是當(dāng)樣本不均衡時(shí),只使用準(zhǔn)確率來評(píng)價(jià)一個(gè)模型的好壞是不夠的。2二分類問題評(píng)價(jià)指標(biāo)(2)精確率和召回率對(duì)于二分類問題常用的評(píng)價(jià)指標(biāo)是精確率和召回率。通常以關(guān)注的類為正類,其他類為負(fù)類,分類器在數(shù)據(jù)集上的預(yù)測(cè)或者正確或者不正確,我們有4種情況,在混淆矩陣中表示如下:P(Positive):代表正例,表示為1N(Negative):代表負(fù)例,表示為0T(True):代表預(yù)測(cè)正確F(False):代表預(yù)測(cè)錯(cuò)誤2二分類問題評(píng)價(jià)指標(biāo)二分類問題的預(yù)測(cè)結(jié)果可以分成以下四類:真正例(TP):預(yù)測(cè)值為1,真實(shí)值為1假正例(FP):預(yù)測(cè)值為1,真實(shí)值為0真反例(TN):預(yù)測(cè)值為0,真實(shí)值為0假反例(FN):預(yù)測(cè)值為0,真實(shí)值為12二分類問題評(píng)價(jià)指標(biāo)精確率(Precision)表示分類正確的正樣本個(gè)數(shù)(TP)占分類器判定為正樣本的樣本個(gè)數(shù)(TP+FP)的比例,公式如下:2二分類問題評(píng)價(jià)指標(biāo)召回率(Recall)是指分類正確的正樣本個(gè)數(shù)(TP)占真正的正樣本個(gè)數(shù)(TP+FN)的比例,公式如下:2二分類問題評(píng)價(jià)指標(biāo)每個(gè)評(píng)價(jià)指標(biāo)都有其價(jià)值,但如果只從單一的評(píng)估指標(biāo)出發(fā)去評(píng)估模型,往往會(huì)得出片面甚至錯(cuò)誤的結(jié)論;只有通過一組互補(bǔ)的指標(biāo)去評(píng)估模型,才能更好地發(fā)現(xiàn)并解決模型存在的問題,從而更好地解決實(shí)際業(yè)務(wù)場(chǎng)景中遇到的問題。3二分類問題損失函數(shù)3二分類問題損失函數(shù)二分類問題中,常見的損失函數(shù)有負(fù)對(duì)數(shù)似然損失(neglog-likelihoodloss)、交叉熵?fù)p失(crossentropyloss)、指數(shù)損失(exponentialloss)等。在分類場(chǎng)景下,最常見的損失函數(shù)是交叉熵?fù)p失函數(shù)(CrossEntropyLoss),二分類問題使用二分類交叉熵?fù)p失函數(shù)。3二分類問題損失函數(shù)在二分的情況下,模型最后需要預(yù)測(cè)的結(jié)果只有兩種情況,對(duì)于每個(gè)類別我們的預(yù)測(cè)得到的概率為p和1-p,此時(shí)表達(dá)式為:其中:yi

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論