機(jī)器學(xué)習(xí)(Python版) 課件 chap7-微視頻-7-李飛飛與ImageNet_第1頁
機(jī)器學(xué)習(xí)(Python版) 課件 chap7-微視頻-7-李飛飛與ImageNet_第2頁
機(jī)器學(xué)習(xí)(Python版) 課件 chap7-微視頻-7-李飛飛與ImageNet_第3頁
機(jī)器學(xué)習(xí)(Python版) 課件 chap7-微視頻-7-李飛飛與ImageNet_第4頁
機(jī)器學(xué)習(xí)(Python版) 課件 chap7-微視頻-7-李飛飛與ImageNet_第5頁
已閱讀5頁,還剩12頁未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

微課視頻:李飛飛與ImageNet教材《機(jī)器學(xué)習(xí)(Python版)》ML李飛飛ML圖1:李飛飛(1976—)ImageNetML基本目標(biāo):為每個(gè)物品類別搜集1000張不同的照片:1000張不同的小提琴照片、1000張不同的德國牧羊犬照片、1000張不同的抱枕照片,直到涵蓋全部2.2萬個(gè)類別,也就是一共需要大約2000萬張圖片。但即便是這個(gè)數(shù)字,也只是最終成品數(shù)據(jù)庫的情況。我們可能需要從數(shù)億張照片,甚至10億張照片中篩選,才能達(dá)到目標(biāo)。MLImageNetML難點(diǎn):巨大的工作量,按最理想的情況考慮也需要18年時(shí)間。這一切歸根結(jié)底是個(gè)后勤問題,而不是科學(xué)問題。研究生如何畢業(yè)?眾人的反對,過程中自己的懷疑、痛苦與掙扎。MLImageNetML重大轉(zhuǎn)機(jī):眾包:在線平臺可以將任務(wù)分配和結(jié)果收集過程自動(dòng)化,有效組織遠(yuǎn)程的臨時(shí)工作團(tuán)隊(duì),規(guī)模小到個(gè)人,大到數(shù)百萬人的團(tuán)隊(duì)。亞馬遜土耳其機(jī)器人(AmazonMechanicalTurk):既有人工標(biāo)注圖片帶來的智慧成分,又有與自動(dòng)化相當(dāng)?shù)乃俣扰c規(guī)模。MLImageNetML最終的成功:2009年6月,ImageNet的初始版本終于完成了,這在很大程度上得益于斯坦福大學(xué)提供的新研究資金。盡管一路上遇到了許多挑戰(zhàn),但李飛飛團(tuán)隊(duì)最終成功達(dá)成了目標(biāo):收集了1500萬張圖片,涵蓋了2.2萬個(gè)不同類別。這些圖片篩選自近10億張候選圖片,并由來自167個(gè)國家的4.8萬多名全球貢獻(xiàn)者進(jìn)行了標(biāo)注。規(guī)模、多樣性、精確度均達(dá)到要求。MLILSVRC競賽ML2010年的比賽:獲勝算法來自一個(gè)由NEC實(shí)驗(yàn)室、羅格斯大學(xué)和伊利諾伊大學(xué)的研究人員組成的聯(lián)合團(tuán)隊(duì)。這個(gè)參賽算法的表現(xiàn)確實(shí)可圈可點(diǎn),每位參賽者的努力都值得贊賞。不過,與計(jì)算機(jī)視覺領(lǐng)域其他方面的前沿工作相比,這些算法只能算略有改進(jìn),很難說開啟了新的時(shí)代。MLILSVRC競賽ML2011年的比賽:獲勝算法來自法國施樂研究中心,也是一種支持向量機(jī)算法,識別表現(xiàn)雖然比前一年有所提高,但也只是將準(zhǔn)確率提高了2個(gè)百分點(diǎn)左右。如果說2010年的比賽虎頭蛇尾的話,那么2011年的比賽則給人一種末日之感。MLILSVRC競賽ML2012年的歷史時(shí)刻:獲勝的團(tuán)隊(duì)使用了非正統(tǒng)的算法,是一種神經(jīng)網(wǎng)絡(luò)算法。它的識別準(zhǔn)確率高達(dá)85%,比上一年的冠軍高出10個(gè)百分點(diǎn),創(chuàng)造了計(jì)算機(jī)視覺領(lǐng)域的世界紀(jì)錄。冠軍算法名為AlexNet,是向這項(xiàng)技術(shù)和項(xiàng)目的主要作者、多倫多大學(xué)研究員亞歷克斯·克里熱夫斯基(AlexKrizhevsky)致敬。MLAlexNetMLAlexNet是卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)的一個(gè)實(shí)例:卷積神經(jīng)網(wǎng)絡(luò)的叫法源于圖形卷積過程。在這個(gè)過程中,一系列濾波器在圖像上掃過,尋找與網(wǎng)絡(luò)所識別事物相對應(yīng)的特征。MLAlexNetMLLeNet:第一個(gè)用于實(shí)用的卷積網(wǎng)絡(luò),手寫數(shù)字識別的錯(cuò)誤率低于1%。MLAlexNetMLAlexNet:2012年ILSVRC競賽冠軍網(wǎng)絡(luò),開啟了深度學(xué)習(xí)的狂飆。MLAlexNet+ImageNetML相互成就??!AlexNet+ImageNetML思考:生物視覺的出現(xiàn)導(dǎo)致遠(yuǎn)古海洋波濤下的寒武紀(jì)大爆發(fā),距今已經(jīng)5億年。而如今,我們很難不去聯(lián)想:我們是不是正處于一個(gè)類似拐點(diǎn)的邊緣?機(jī)器視覺的興起是否會(huì)引發(fā)一輪數(shù)字進(jìn)化新浪潮呢?ML新一代ImageNetML圖1:李飛飛解讀創(chuàng)業(yè)方向「空間智能」,讓AI真正理解世界目標(biāo)、堅(jiān)持、心態(tài)ML王國維的三重境界說:“昨夜西風(fēng)凋碧樹,獨(dú)上高樓,望盡天涯路?!贝说谝痪辰缫玻ㄟh(yuǎn)大的目標(biāo))?!耙聨u寬終不

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論