《人工智能導(dǎo)論》課件 第3章 人工智能的技術(shù)基礎(chǔ)_第1頁(yè)
《人工智能導(dǎo)論》課件 第3章 人工智能的技術(shù)基礎(chǔ)_第2頁(yè)
《人工智能導(dǎo)論》課件 第3章 人工智能的技術(shù)基礎(chǔ)_第3頁(yè)
《人工智能導(dǎo)論》課件 第3章 人工智能的技術(shù)基礎(chǔ)_第4頁(yè)
《人工智能導(dǎo)論》課件 第3章 人工智能的技術(shù)基礎(chǔ)_第5頁(yè)
已閱讀5頁(yè),還剩35頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第3章人工智能的技術(shù)基礎(chǔ)人工智能導(dǎo)論

科技改變未來(lái)機(jī)器學(xué)習(xí)3.23.13.3深度學(xué)習(xí)大模型實(shí)踐3.1.1?機(jī)器學(xué)習(xí)的基本概念1.機(jī)器學(xué)習(xí)的常見(jiàn)模型類(lèi)型監(jiān)督學(xué)習(xí)(SupervisedLearning)和無(wú)監(jiān)督學(xué)習(xí)(UnsupervisedLearning)是機(jī)器學(xué)習(xí)中兩種基本的學(xué)習(xí)范式,在數(shù)據(jù)標(biāo)注和學(xué)習(xí)目的等方面有著明顯的區(qū)別。1在監(jiān)督學(xué)習(xí)中,模型從標(biāo)注好的訓(xùn)練數(shù)據(jù)中學(xué)習(xí)規(guī)律,以對(duì)新的未知數(shù)據(jù)做出準(zhǔn)確預(yù)測(cè)或分類(lèi)為目的。常見(jiàn)的監(jiān)督學(xué)習(xí)算法包括線性回歸、邏輯回歸、支持向量機(jī)、決策樹(shù)、隨機(jī)森林等。2在無(wú)監(jiān)督學(xué)習(xí)中,模型從未標(biāo)注的數(shù)據(jù)中學(xué)習(xí)模式和結(jié)構(gòu),目的是發(fā)現(xiàn)數(shù)據(jù)的內(nèi)在結(jié)構(gòu)。常見(jiàn)的無(wú)監(jiān)督學(xué)習(xí)算法包括聚類(lèi)算法(如K均值聚類(lèi))、降維算法(如主成分分析)等。(1)監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)3.1.1?機(jī)器學(xué)習(xí)的基本概念監(jiān)督學(xué)習(xí)是一種常見(jiàn)的機(jī)器學(xué)習(xí)范式。在監(jiān)督學(xué)習(xí)中,訓(xùn)練數(shù)據(jù)通常包含輸入特征和對(duì)應(yīng)的輸出標(biāo)簽,模型從有標(biāo)簽的訓(xùn)練數(shù)據(jù)中學(xué)習(xí),以構(gòu)建輸入數(shù)據(jù)與輸出標(biāo)簽之間的關(guān)系模型。訓(xùn)練數(shù)據(jù)的輸出標(biāo)簽通常通過(guò)人工標(biāo)注獲取。通過(guò)學(xué)習(xí)訓(xùn)練數(shù)據(jù)中的模式,模型可以在未見(jiàn)過(guò)的新數(shù)據(jù)上進(jìn)行準(zhǔn)確的預(yù)測(cè)或分類(lèi)。也就是說(shuō),模型在學(xué)習(xí)過(guò)程中依賴有標(biāo)簽的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,通過(guò)最小化預(yù)測(cè)誤差來(lái)優(yōu)化模型,以實(shí)現(xiàn)對(duì)新的測(cè)試數(shù)據(jù)進(jìn)行預(yù)測(cè)。無(wú)監(jiān)督學(xué)習(xí)則是另一種機(jī)器學(xué)習(xí)范式。在無(wú)監(jiān)督學(xué)習(xí)中,模型從無(wú)標(biāo)簽的數(shù)據(jù)中學(xué)習(xí)隱藏的模式和結(jié)構(gòu),不用預(yù)先定義輸出標(biāo)簽。無(wú)監(jiān)督學(xué)習(xí)的訓(xùn)練數(shù)據(jù)僅包含輸入數(shù)據(jù)的特征,沒(méi)有對(duì)應(yīng)的輸出標(biāo)簽。模型需探索數(shù)據(jù)中蘊(yùn)含的內(nèi)在結(jié)構(gòu),發(fā)現(xiàn)數(shù)據(jù)之間的關(guān)聯(lián)屬性。也就是說(shuō),模型在無(wú)監(jiān)督學(xué)習(xí)過(guò)程中不依賴標(biāo)簽,而是自行發(fā)現(xiàn)數(shù)據(jù)中的結(jié)構(gòu),目的通常是對(duì)數(shù)據(jù)進(jìn)行聚類(lèi)、降維或異常識(shí)別等。3.1.1?機(jī)器學(xué)習(xí)的基本概念強(qiáng)化學(xué)習(xí)(ReinforcementLearning)是一種機(jī)器學(xué)習(xí)范式,通過(guò)與環(huán)境的交互學(xué)習(xí)做出決策,以最大化累積獎(jiǎng)勵(lì)。強(qiáng)化學(xué)習(xí)的靈感來(lái)源于認(rèn)知心理學(xué)中的行為主義理論,智能體通過(guò)與環(huán)境的交互進(jìn)行學(xué)習(xí),以在特定任務(wù)中獲得最大的累積獎(jiǎng)勵(lì)。在強(qiáng)化學(xué)習(xí)中,存在如下5個(gè)概念。(2)強(qiáng)化學(xué)習(xí)智能體強(qiáng)化學(xué)習(xí)系統(tǒng)中的決策制訂者,負(fù)責(zé)觀察環(huán)境、選擇動(dòng)作并獲得獎(jiǎng)勵(lì)。環(huán)境(Environment)智能體所處的外部環(huán)境,對(duì)智能體的行為動(dòng)作做出響應(yīng),并提供獎(jiǎng)勵(lì)信號(hào)。狀態(tài)(State)描述環(huán)境的特定情況,智能體根據(jù)狀態(tài)做出決策。動(dòng)作(Action)智能體在特定狀態(tài)下可以執(zhí)行的操作。獎(jiǎng)勵(lì)(Reward)環(huán)境根據(jù)智能體的動(dòng)作提供的即時(shí)反饋,用于指導(dǎo)智能體的學(xué)習(xí)過(guò)程。3.1.1?機(jī)器學(xué)習(xí)的基本概念強(qiáng)化學(xué)習(xí)的核心在于智能體通過(guò)嘗試,學(xué)習(xí)最優(yōu)的行為策略,以最大化長(zhǎng)期獎(jiǎng)勵(lì)。策略和價(jià)值函數(shù)是強(qiáng)化學(xué)習(xí)的重要組成部分,用于評(píng)估動(dòng)作的好壞并指導(dǎo)智能體的決策。策略和價(jià)值函數(shù)是強(qiáng)化學(xué)習(xí)的重要組成部分,用于評(píng)估動(dòng)作的好壞并指導(dǎo)智能體的決策。策略指的是智能體在特定狀態(tài)下選擇動(dòng)作的規(guī)則;策略可以是確定性的(確定的智能體動(dòng)作)或概率性的(根據(jù)概率選擇動(dòng)作)。價(jià)值函數(shù)則是在獎(jiǎng)勵(lì)的基礎(chǔ)上凝練出來(lái)的,用于衡量在特定狀態(tài)下智能體能獲得的長(zhǎng)期獎(jiǎng)勵(lì)期望值。價(jià)值函數(shù)可以幫助智能體評(píng)估不同策略的好壞。典型的強(qiáng)化學(xué)習(xí)算法包括Q學(xué)習(xí)、蒙特卡洛方法、策略梯度等。強(qiáng)化學(xué)習(xí)的典型應(yīng)用場(chǎng)景包括大語(yǔ)言模型的人類(lèi)對(duì)齊,即利用強(qiáng)化學(xué)習(xí)方法對(duì)預(yù)訓(xùn)練好的大模型進(jìn)行微調(diào),使其與人類(lèi)價(jià)值觀、人的真實(shí)意圖適配。3.1.1?機(jī)器學(xué)習(xí)的基本概念2.評(píng)估機(jī)器學(xué)習(xí)模型性能的核心概念:誤差、泛化誤差誤差在機(jī)器學(xué)習(xí)中,誤差指的是模型的預(yù)測(cè)輸出與實(shí)際標(biāo)簽之間的差異,通常用損失函數(shù)來(lái)度量。誤差可以幫助評(píng)估模型的性能,根據(jù)評(píng)估數(shù)據(jù)的差異可細(xì)分成訓(xùn)練誤差和測(cè)試誤差,后者又被稱為泛化誤差。訓(xùn)練誤差代表模型在訓(xùn)練數(shù)據(jù)集上的表現(xiàn),即模型對(duì)訓(xùn)練數(shù)據(jù)的預(yù)測(cè)輸出與真實(shí)標(biāo)簽之間的差異。訓(xùn)練誤差是模型優(yōu)化的目標(biāo)函數(shù),是模型參數(shù)更新的基準(zhǔn)。泛化誤差泛化誤差則指的是模型在新數(shù)據(jù)上的表現(xiàn),代表模型在實(shí)際應(yīng)用場(chǎng)景中的性能,即模型的泛化能力。泛化誤差小則代表模型具備高泛化能力;泛化誤差大則代表模型具備低泛化能力。訓(xùn)練誤差越小,模型在訓(xùn)練數(shù)據(jù)上的擬合效果越好。但是如果訓(xùn)練誤差非常小,而泛化誤差較大,則可能存在過(guò)擬合問(wèn)題。3.1.1?機(jī)器學(xué)習(xí)的基本概念3.機(jī)器學(xué)習(xí)中的常見(jiàn)問(wèn)題:過(guò)擬合和欠擬合過(guò)擬合過(guò)擬合指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在未見(jiàn)過(guò)的測(cè)試數(shù)據(jù)上表現(xiàn)不佳的情況。具體表現(xiàn)是訓(xùn)練誤差小,測(cè)試誤差大。如圖所示,在過(guò)擬合情況下,模型過(guò)度學(xué)習(xí)訓(xùn)練數(shù)據(jù)中的噪聲和細(xì)節(jié),而忽略了數(shù)據(jù)中的真實(shí)模式。對(duì)應(yīng)的表現(xiàn)為,模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,訓(xùn)練誤差很小;但是由于缺乏對(duì)數(shù)據(jù)本質(zhì)的理解,模型在測(cè)試數(shù)據(jù)上表現(xiàn)不佳,測(cè)試誤差較大。過(guò)擬合問(wèn)題的出現(xiàn)通常是因?yàn)槟P瓦^(guò)于復(fù)雜,過(guò)度學(xué)習(xí)了訓(xùn)練數(shù)據(jù)中的噪聲和細(xì)節(jié)。泛化誤差欠擬合指的是模型無(wú)法在訓(xùn)練數(shù)據(jù)上有很好的表現(xiàn),同時(shí)在測(cè)試數(shù)據(jù)上也表現(xiàn)糟糕的情況。具體表現(xiàn)是訓(xùn)練誤差和測(cè)試誤差都大。這通常是因?yàn)槟P瓦^(guò)于簡(jiǎn)單,無(wú)法捕捉數(shù)據(jù)中相對(duì)復(fù)雜的模式。也就是說(shuō),欠擬合問(wèn)題的出現(xiàn)通常是因?yàn)槟P蛷?fù)雜度不足,無(wú)法刻畫(huà)數(shù)據(jù)的真實(shí)模式。3.1.1?機(jī)器學(xué)習(xí)的基本概念圖?機(jī)器學(xué)習(xí)中的欠擬合、適當(dāng)擬合與過(guò)擬合示意在機(jī)器學(xué)習(xí)中,過(guò)擬合和欠擬合都是需要避免的問(wèn)題,而合適的模型復(fù)雜度和訓(xùn)練數(shù)據(jù)量是關(guān)鍵因素,可以幫助緩解上述兩種問(wèn)題,達(dá)到適當(dāng)擬合。3.1.2?機(jī)器學(xué)習(xí)算法機(jī)器學(xué)習(xí)的本質(zhì)是在數(shù)據(jù)中學(xué)習(xí)規(guī)律,并根據(jù)學(xué)到的規(guī)律對(duì)未見(jiàn)過(guò)的數(shù)據(jù)進(jìn)行預(yù)測(cè)。經(jīng)典的機(jī)器學(xué)習(xí)算法包括線性回歸、邏輯回歸、支持向量機(jī)、決策樹(shù)等。線性回歸(LinearRegression)(示例見(jiàn)圖)是一種用于建立變量之間線性關(guān)系的統(tǒng)計(jì)模型。它基于輸入特征的線性組合來(lái)預(yù)測(cè)連續(xù)型輸出變量的值。線性回歸是一種簡(jiǎn)單且有效的機(jī)器學(xué)習(xí)算法,常用在適配于回歸分析的預(yù)測(cè)和建模(例如銷(xiāo)售量預(yù)測(cè)、價(jià)格變化趨勢(shì)分析等)上。在實(shí)際應(yīng)用中,線性回歸通常作為統(tǒng)計(jì)建?;驒C(jī)器學(xué)習(xí)的初始基線模型,以快速評(píng)估數(shù)據(jù)的可預(yù)測(cè)性,并為復(fù)雜模型(如非線性模型)的設(shè)計(jì)提供性能對(duì)比基準(zhǔn)。線性回歸01圖?線性回歸示例3.1.2?機(jī)器學(xué)習(xí)算法邏輯回歸(LogisticalRegression)是另一種常用于分類(lèi)的機(jī)器學(xué)習(xí)算法。盡管名字中包含“回歸”,但邏輯回歸其實(shí)是一種解決分類(lèi)問(wèn)題的模型。邏輯回歸也基于線性模型,但使用了邏輯映射(也稱為Sigmoid函數(shù))將線性模型的輸出映射到[0,1]之間,用于表示不同類(lèi)別的概率。邏輯映射的數(shù)學(xué)表達(dá)式:邏輯回歸通常使用對(duì)數(shù)損失函數(shù)來(lái)衡量模型的預(yù)測(cè)誤差。簡(jiǎn)單來(lái)說(shuō),對(duì)數(shù)損失函數(shù)是衡量模型輸出類(lèi)別與實(shí)際類(lèi)別之間差異的一種函數(shù)。損失值從0到無(wú)窮大,值越小表示模型預(yù)測(cè)效果越好。邏輯回歸的目標(biāo)是最小化損失值,通常使用梯度下降來(lái)減小損失值,更新模型參數(shù)。邏輯回歸常被用于二分類(lèi)問(wèn)題,如垃圾郵件識(shí)別、疾病診斷等。邏輯回歸02支持向量機(jī)(SupportVectorMachine,SVM)是一種強(qiáng)大的監(jiān)督學(xué)習(xí)算法,常用于分類(lèi)任務(wù)。支持向量機(jī)的工作原理是尋找最大分類(lèi)間隔(Margin),即尋找到一個(gè)能夠?qū)⒉煌?lèi)別的數(shù)據(jù)點(diǎn)分開(kāi)的超平面,且該超平面能夠使兩個(gè)類(lèi)別之間的間隔最大化。如圖所示。支持向量機(jī)033.1.2?機(jī)器學(xué)習(xí)算法在實(shí)際應(yīng)用中,數(shù)據(jù)往往不是完全線性可分的。因此,針對(duì)支持向量機(jī)算法引入了軟間隔和正則化的概念,允許一些數(shù)據(jù)點(diǎn)在間隔內(nèi),通過(guò)權(quán)衡間隔的大小來(lái)優(yōu)化模型參數(shù)。對(duì)于多類(lèi)別分類(lèi)問(wèn)題,支持向量機(jī)可以通過(guò)“一對(duì)一”(One-vs-One)或“一對(duì)其他”(One-vs-All)的轉(zhuǎn)化策略來(lái)實(shí)現(xiàn)多類(lèi)別分類(lèi)。支持向量機(jī)通過(guò)最大化分類(lèi)超平面與支持向量之間的幾何間隔來(lái)構(gòu)建分類(lèi)器,使得分類(lèi)超平面僅與少量的支持向量樣本有關(guān),避免了對(duì)于大量數(shù)據(jù)的依賴,所以具有良好的泛化性能和魯棒性。支持向量機(jī)算法對(duì)特征縮放和異常值相對(duì)不敏感,因此在處理高維數(shù)據(jù)和數(shù)據(jù)噪聲方面表現(xiàn)良好,被廣泛應(yīng)用于文本分類(lèi)、圖像識(shí)別、生物信息學(xué)等領(lǐng)域,尤其在小樣本情況下的高維數(shù)據(jù)分類(lèi)問(wèn)題上表現(xiàn)突出。圖?支持向量機(jī)示意3.1.2?機(jī)器學(xué)習(xí)算法決策樹(shù)(DecisionTree)是一種常見(jiàn)的機(jī)器學(xué)習(xí)算法,可按照對(duì)應(yīng)的機(jī)器學(xué)習(xí)任務(wù)的差異分為分類(lèi)樹(shù)和回歸樹(shù),分別用于解決分類(lèi)和回歸問(wèn)題。決策樹(shù)由節(jié)點(diǎn)和分支組成,每個(gè)內(nèi)部(非葉子)節(jié)點(diǎn)表示對(duì)應(yīng)于特征或?qū)傩缘囊粋€(gè)測(cè)試,每個(gè)分支表示一個(gè)測(cè)試輸出,每個(gè)葉子節(jié)點(diǎn)表示一個(gè)分類(lèi)類(lèi)別(分類(lèi)樹(shù))或者一個(gè)回歸值(回歸樹(shù))。決策樹(shù)算法通過(guò)選擇最佳的特征測(cè)試方式來(lái)構(gòu)建樹(shù)結(jié)構(gòu),以使得每個(gè)劃分能夠最大限度地提高預(yù)測(cè)準(zhǔn)確性。常用的特征選擇指標(biāo)包括信息增益、基尼不純度等。分類(lèi)決策樹(shù)的示例如圖所示。當(dāng)新數(shù)據(jù)進(jìn)入決策樹(shù)時(shí),根據(jù)每個(gè)節(jié)點(diǎn)的特征測(cè)試結(jié)果,沿著樹(shù)的分支向下走,直至到達(dá)葉子節(jié)點(diǎn),葉子節(jié)點(diǎn)的類(lèi)別即分類(lèi)預(yù)測(cè)結(jié)果。決策樹(shù)在處理連續(xù)型特征時(shí),通常會(huì)選擇一個(gè)特征及一個(gè)特定的閾值進(jìn)行數(shù)據(jù)劃分。決策樹(shù)作為一種直觀且易于解釋的機(jī)器學(xué)習(xí)算法,在許多領(lǐng)域得到了廣泛的應(yīng)用。決策樹(shù)043.1.2?機(jī)器學(xué)習(xí)算法圖?分類(lèi)決策樹(shù)的示例決策樹(shù)易于與其他技術(shù)結(jié)合使用,如聯(lián)合集成學(xué)習(xí)構(gòu)建隨機(jī)森林算法以提高預(yù)測(cè)性能。決策樹(shù)可以清晰地展示特征對(duì)預(yù)測(cè)結(jié)果的重要性和影響,因此可解釋性強(qiáng)。決策樹(shù)對(duì)異常值和缺失值具有魯棒性,易于處理非數(shù)值類(lèi)的屬性數(shù)據(jù),常用于金融風(fēng)控、醫(yī)療診斷等領(lǐng)域,尤其在需要解釋性和可視化的場(chǎng)景中應(yīng)用廣泛。機(jī)器學(xué)習(xí)3.13.23.3深度學(xué)習(xí)大模型實(shí)踐3.2.1?感知機(jī)感知機(jī)(Perceptron)是一種簡(jiǎn)單的線性分類(lèi)模型,是深度學(xué)習(xí)的基礎(chǔ)單元,是形式最簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò),可用于二分類(lèi)問(wèn)題。具體而言,感知機(jī)模型的輸出由如下公式給出,其中sgn(·)被稱為階躍函數(shù)。感知機(jī)模型的訓(xùn)練過(guò)程包括初始化權(quán)重和偏置,然后迭代地對(duì)每個(gè)訓(xùn)練數(shù)據(jù)進(jìn)行預(yù)測(cè)并根據(jù)預(yù)測(cè)結(jié)果調(diào)整權(quán)重和偏置,直到達(dá)到停止條件(如所有的訓(xùn)練數(shù)據(jù)都被正確分類(lèi)或達(dá)到最大迭代次數(shù))。感知機(jī)模型在訓(xùn)練數(shù)據(jù)線性可分的情況下是收斂的,即存在一個(gè)決策超平面可以完全正確地對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分類(lèi)。3.2.2?深度神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)是由多個(gè)神經(jīng)網(wǎng)絡(luò)層組成的神經(jīng)網(wǎng)絡(luò)模型。深度神經(jīng)網(wǎng)絡(luò)在深度學(xué)習(xí)中是模型架構(gòu)核心。根據(jù)結(jié)構(gòu)和功能的不同,可以將深度神經(jīng)網(wǎng)絡(luò)分為多種類(lèi)型,常見(jiàn)的有全連接前饋神經(jīng)網(wǎng)絡(luò)(Fully-ConnectedFeedForwardNeuralNetwork,F(xiàn)FN)、卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、Transformer網(wǎng)絡(luò)等。1.全連接前饋神經(jīng)網(wǎng)絡(luò)全連接前饋神經(jīng)網(wǎng)絡(luò)是一種基本的神經(jīng)網(wǎng)絡(luò)模型,又被稱為多層感知機(jī)(Multi-LayerPerceptron,MLP)。全連接前饋神經(jīng)網(wǎng)絡(luò)由一個(gè)輸入層、一個(gè)或多個(gè)隱含層以及一個(gè)輸出層組成,在結(jié)構(gòu)上由多個(gè)全連接層前后串接形成。激活函數(shù)是深度神經(jīng)網(wǎng)絡(luò)的重要組成部分,其引入非線性變換,使神經(jīng)網(wǎng)絡(luò)能夠擬合復(fù)雜的非線性關(guān)系。常用的激活函數(shù)包括Sigmoid、雙曲正切函數(shù)Tanh、線性整流函數(shù)ReLU等,其中,ReLU(RectifiedLinearUnit)是目前在深度神經(jīng)網(wǎng)絡(luò)中最常用的激活函數(shù)之一。全連接前饋神經(jīng)網(wǎng)絡(luò)是最基礎(chǔ)的深度神經(jīng)網(wǎng)絡(luò)之一,其網(wǎng)絡(luò)基本單元是人工神經(jīng)元模型,來(lái)源于對(duì)生物神經(jīng)元的數(shù)學(xué)抽象。圖?卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)3.2.2?深度神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)是一種專(zhuān)門(mén)用于處理網(wǎng)格狀結(jié)構(gòu)化數(shù)據(jù),特別是圖像數(shù)據(jù)的深度神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)的典型結(jié)構(gòu)包括卷積層、池化層和全連接層等,如圖所示。2.卷積神經(jīng)網(wǎng)絡(luò)3.2.2?深度神經(jīng)網(wǎng)絡(luò)卷積層的基礎(chǔ)操作是卷積,通過(guò)滑動(dòng)一個(gè)卷積核在輸入數(shù)據(jù)上進(jìn)行加權(quán)求和得到輸出特征圖。卷積層通過(guò)卷積操作來(lái)提取輸入數(shù)據(jù)的特征。每個(gè)卷積核對(duì)輸入數(shù)據(jù)執(zhí)行卷積操作,生成一個(gè)特征圖,每個(gè)特征圖對(duì)應(yīng)一個(gè)卷積核提取的特定特征。每個(gè)卷積層通??梢园ǘ鄠€(gè)卷積核,得到一組多通道的特征圖。池化層則是執(zhí)行下采樣操作,通過(guò)下采樣的方式減少特征映射的維度,減少數(shù)據(jù)量和參數(shù)數(shù)量,同時(shí)保留重要特征。常用的池化操作包括最大池化(MaxPooling)和平均池化(AveragePooling),分別取池化窗口中的最大值和平均值作為輸出。卷積神經(jīng)網(wǎng)絡(luò)的最后通常有全連接層,對(duì)卷積層和池化層提取的特征進(jìn)行平鋪展開(kāi)后連接到一個(gè)或多個(gè)全連接層中執(zhí)行分類(lèi)或回歸的下游任務(wù)。3.2.2?深度神經(jīng)網(wǎng)絡(luò)感受野(ReceptiveField)是卷積神經(jīng)網(wǎng)絡(luò)的重要概念,用于描述每個(gè)神經(jīng)元對(duì)輸入數(shù)據(jù)的感知范圍。卷積神經(jīng)網(wǎng)絡(luò)的卷積層具備局部感受野(LocalReceptiveField),即在網(wǎng)絡(luò)中某一層的一個(gè)神經(jīng)元所能“看到”的輸入數(shù)據(jù)的區(qū)域范圍。與之相對(duì)應(yīng)的,全連接層具備全局感受野(GlobalReceptiveField),即全連接層的各個(gè)神經(jīng)元均對(duì)輸入數(shù)據(jù)的所有維度進(jìn)行感知,具備整體感知范圍。合理地設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò),可以達(dá)到優(yōu)化感受野的目的,從而提高卷積神經(jīng)網(wǎng)絡(luò)模型的預(yù)測(cè)性能和效率。在卷積神經(jīng)網(wǎng)絡(luò)中,權(quán)重共享是一種重要的機(jī)制,用于減少模型參數(shù)數(shù)量并提高模型的泛化能力。權(quán)重共享指的是在卷積核的不同位置使用相同的參數(shù)(權(quán)重),實(shí)現(xiàn)對(duì)不同位置的特征進(jìn)行相同的處理。從模型復(fù)雜性的角度來(lái)說(shuō),卷積層中的神經(jīng)元分別對(duì)輸入的不同位置進(jìn)行感知,權(quán)重共享使得不同神經(jīng)元共享相同的參數(shù),可顯著減少需要學(xué)習(xí)的參數(shù)數(shù)量,降低模型的復(fù)雜度。3.2.2?深度神經(jīng)網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)通過(guò)卷積層和池化層提取輸入數(shù)據(jù)的特征,從低級(jí)特征(如圖像的邊緣、紋理)逐漸到高級(jí)抽象特征(如圖像中包括的目標(biāo)對(duì)象的部件或整體)。早期的卷積神經(jīng)網(wǎng)絡(luò)概念[如福島邦彥(KunihikoFukushima)的神經(jīng)認(rèn)知機(jī)(Neocognitron)模型]可以追溯到20世紀(jì)60年代和70年代。卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)特點(diǎn)使其能夠有效地捕獲數(shù)據(jù)中的空間結(jié)構(gòu)信息,在圖像處理領(lǐng)域取得了巨大成功,同時(shí)也被廣泛應(yīng)用于視頻分析、語(yǔ)音信號(hào)處理等領(lǐng)域。圖?循環(huán)神經(jīng)網(wǎng)絡(luò)的基本單元3.2.2?深度神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)是一種專(zhuān)門(mén)用于處理序列數(shù)據(jù)(如文本、時(shí)間序列)的神經(jīng)網(wǎng)絡(luò)。在循環(huán)神經(jīng)網(wǎng)絡(luò)中,數(shù)據(jù)的前后順序?qū)敵鼋Y(jié)果是有影響的。循環(huán)結(jié)構(gòu)是循環(huán)神經(jīng)網(wǎng)絡(luò)的特色,允許信息在網(wǎng)絡(luò)內(nèi)部進(jìn)行按時(shí)間步的遞歸傳遞。每個(gè)時(shí)刻的輸入數(shù)據(jù)會(huì)與上一個(gè)時(shí)刻的隱含狀態(tài)一起輸入網(wǎng)絡(luò)。如圖所示,循環(huán)神經(jīng)網(wǎng)絡(luò)的基本單元包含一個(gè)被稱為隱含狀態(tài)(HiddenState)的變量。3.循環(huán)神經(jīng)網(wǎng)絡(luò)3.2.2?深度神經(jīng)網(wǎng)絡(luò)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)是一種帶門(mén)控機(jī)制的循環(huán)神經(jīng)網(wǎng)絡(luò)變體,專(zhuān)門(mén)用來(lái)解決長(zhǎng)期依賴關(guān)系的問(wèn)題。如左圖所示,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)中包含記憶單元,其通過(guò)細(xì)胞狀態(tài)來(lái)表達(dá),可以在序列中長(zhǎng)期保留信息,從而更好地處理長(zhǎng)期依賴關(guān)系。長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)引入了3個(gè)門(mén)控單元,分別是輸入門(mén)、遺忘門(mén)和輸出門(mén),用來(lái)控制信息流動(dòng)。圖?長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)示意3.2.2?深度神經(jīng)網(wǎng)絡(luò)門(mén)控循環(huán)單元是一種類(lèi)似于長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)的循環(huán)神經(jīng)網(wǎng)絡(luò)變體。如右圖所示,門(mén)控循環(huán)單元包含一個(gè)重置門(mén),通過(guò)Sigmoid激活函數(shù)(圖中表示為σ)生成一個(gè)介于0和1之間的值,用于控制前一時(shí)刻隱含狀態(tài)的影響,即控制前一時(shí)刻的隱含狀態(tài)如何影響當(dāng)前時(shí)刻的隱含狀態(tài)。圖?門(mén)控循環(huán)單元示意圖?基于注意機(jī)制的Transformer網(wǎng)絡(luò)3.2.2?深度神經(jīng)網(wǎng)絡(luò)4.Transformer網(wǎng)絡(luò)Transformer網(wǎng)絡(luò)是一種基于注意機(jī)制的深度神經(jīng)網(wǎng)絡(luò)架構(gòu),常用于處理序列數(shù)據(jù),是大模型的基本模型架構(gòu)。Transformer網(wǎng)絡(luò)使用注意機(jī)制對(duì)序列中的兩兩數(shù)據(jù)關(guān)聯(lián)進(jìn)行建模,允許模型在處理序列數(shù)據(jù)時(shí)并行地考慮序列中所有位置的信息,區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)中的順序處理。Transformer網(wǎng)絡(luò)由編碼器和解碼器組成,如圖所示。編碼器用于將輸入序列轉(zhuǎn)換為潛在的隱藏表示,解碼器則將編碼器獲取的隱藏表示轉(zhuǎn)換為輸出序列。3.2.3?深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化學(xué)習(xí)反向傳播算法簡(jiǎn)稱BP算法,是一種用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的算法,屬于監(jiān)督學(xué)習(xí)方法。BP算法經(jīng)歷了多個(gè)階段的發(fā)展。1974年,保羅J.沃伯斯(PaulJ.Werbos)提出了早期BP算法的雛形。1986年,戴維·魯梅爾哈特(DavidRumelhardt)、杰弗里·欣頓和羅納德·威廉斯(RonaldWilliams)等人發(fā)表了關(guān)于BP算法的論文,為BP算法的發(fā)展奠定了基礎(chǔ)。具體而言,深度神經(jīng)網(wǎng)絡(luò)通過(guò)BP算法來(lái)獲取網(wǎng)絡(luò)中參數(shù)的梯度,并結(jié)合梯度下降法更新網(wǎng)絡(luò)中的權(quán)重、偏置等參數(shù),以最小化損失函數(shù)。BP算法通過(guò)不斷地計(jì)算神經(jīng)網(wǎng)絡(luò)輸出與實(shí)際標(biāo)簽之間的誤差,并將誤差沿著神經(jīng)網(wǎng)絡(luò)的反向路徑傳播回網(wǎng)絡(luò)中的每一層,以更新網(wǎng)絡(luò)參數(shù)(也就是各個(gè)神經(jīng)元節(jié)點(diǎn)的權(quán)重和偏置),從而最小化網(wǎng)絡(luò)模型的預(yù)測(cè)誤差。從數(shù)學(xué)角度看,BP算法利用鏈?zhǔn)椒▌t計(jì)算每一層的梯度,將誤差以梯度的形式逐層反向傳播回網(wǎng)絡(luò)的輸入層。BP算法的具體步驟如下。①

前向傳播②

計(jì)算誤差③

反向傳播④

更新權(quán)重⑤

重復(fù)迭代3.2.4?深度學(xué)習(xí)框架01PyTorchPyTorch是一個(gè)開(kāi)源的深度學(xué)習(xí)框架,由Facebook公司(Meta公司前身)的人工智能研究團(tuán)隊(duì)于2016年發(fā)布,是目前最流行的深度學(xué)習(xí)框架之一。Pytorch具備的靈活性和高度可擴(kuò)展性,使其在構(gòu)建和訓(xùn)練神經(jīng)網(wǎng)絡(luò)模型時(shí)更加簡(jiǎn)單和直觀。PyTorch采用動(dòng)態(tài)計(jì)算圖方式搭建和實(shí)現(xiàn)深度神經(jīng)網(wǎng)絡(luò)模型,與靜態(tài)計(jì)算圖方式相比,更加直觀和易于調(diào)試。PyTorch支持動(dòng)態(tài)計(jì)算圖和靜態(tài)計(jì)算圖混合編程,同時(shí)也能夠與其他深度學(xué)習(xí)框架(如TensorFlow)進(jìn)行集成,具有很高的可擴(kuò)展性。PyTorch擁有龐大的社區(qū)和活躍的生態(tài)系統(tǒng),用戶可以通過(guò)社區(qū)貢獻(xiàn)的模塊和工具來(lái)擴(kuò)展PyTorch的功能。PyTorch提供了TorchScript和TorchServe等工具,用于將PyTorch模型部署到生產(chǎn)環(huán)境中,實(shí)現(xiàn)模型的高效部署和服務(wù)。3.2.4?深度學(xué)習(xí)框架02TensorFlowTensorFlow是一個(gè)由谷歌Brain團(tuán)隊(duì)開(kāi)發(fā)的開(kāi)源深度學(xué)習(xí)框架,發(fā)布于2015年,被廣泛用于構(gòu)建和訓(xùn)練各種機(jī)器學(xué)習(xí)模型,包括神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí)模型等。TensorFlow的應(yīng)用程序接口(ApplicationProgrammingInterface,API)設(shè)計(jì)非常靈活,支持各種自定義擴(kuò)展;同時(shí)提供了高級(jí)API,使得構(gòu)建神經(jīng)網(wǎng)絡(luò)模型更加簡(jiǎn)單快捷。此外,TensorFlow還提供了各種工具和庫(kù),如TensorBoard用于可視化訓(xùn)練過(guò)程和模型結(jié)構(gòu)。TensorFlow提供了多種部署方式,包括TensorFlowServing[用于模型部署和服務(wù)化(Serving)],TensorFlowLite(用于移動(dòng)設(shè)備上的模型部署)等,便于將訓(xùn)練好的模型部署到生產(chǎn)環(huán)境。TensorFlow作為一個(gè)功能強(qiáng)大且靈活的深度學(xué)習(xí)框架,適用于各種規(guī)模的項(xiàng)目,從小規(guī)模的實(shí)驗(yàn)到大規(guī)模的生產(chǎn)系統(tǒng)都有廣泛的應(yīng)用。TensorFlow擁有龐大的用戶社區(qū)和豐富的生態(tài)系統(tǒng),提供了大量的預(yù)訓(xùn)練模型、工具和資源,幫助用戶快速構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型,其不斷的更新和持續(xù)的改進(jìn)也使得它在深度學(xué)習(xí)領(lǐng)域保持著領(lǐng)先地位。機(jī)器學(xué)習(xí)3.23.33.1深度學(xué)習(xí)大模型實(shí)踐3.3?大模型實(shí)踐大模型是機(jī)器學(xué)習(xí)、人工智能領(lǐng)域中越來(lái)越受關(guān)注的實(shí)踐和研究課題。大模型通常指擁有大量參數(shù)和復(fù)雜結(jié)構(gòu)的深度學(xué)習(xí)模型,通常擁有數(shù)十億到數(shù)百億甚至更多的參數(shù)。圖中展示了不同時(shí)期的大模型的規(guī)模(參數(shù)數(shù)量)、訓(xùn)練數(shù)據(jù)量。圖?不同時(shí)期的大模型及其對(duì)應(yīng)的數(shù)據(jù)規(guī)模3.3.1?數(shù)據(jù)準(zhǔn)備在訓(xùn)練大模型時(shí),數(shù)據(jù)準(zhǔn)備是一個(gè)至關(guān)重要的環(huán)節(jié),對(duì)數(shù)據(jù)進(jìn)行有效的準(zhǔn)備可以提高訓(xùn)練效率和模型性能。首要工作是進(jìn)行數(shù)據(jù)收集與數(shù)據(jù)預(yù)處理。01此外,還可以采取數(shù)據(jù)增強(qiáng)策略,在模型訓(xùn)練過(guò)程中對(duì)數(shù)據(jù)集進(jìn)行擴(kuò)充處理,改善模型的泛化能力。03在數(shù)據(jù)準(zhǔn)備完成之后,全面評(píng)估測(cè)試數(shù)據(jù)集的質(zhì)量和多樣性。04數(shù)據(jù)集后,需進(jìn)行數(shù)據(jù)清洗、去噪、標(biāo)注等數(shù)據(jù)預(yù)處理工作。023.3.1?數(shù)據(jù)準(zhǔn)備在數(shù)據(jù)準(zhǔn)備完成之后,全面評(píng)估測(cè)試數(shù)據(jù)集的質(zhì)量和多樣性,可以確保訓(xùn)練出性能優(yōu)越的模型。在對(duì)數(shù)據(jù)進(jìn)行多樣性評(píng)估時(shí),可以結(jié)合人工抽樣、專(zhuān)家評(píng)估等手段,對(duì)數(shù)據(jù)的來(lái)源、風(fēng)格等屬性進(jìn)行分析。數(shù)據(jù)增強(qiáng)是在機(jī)器學(xué)習(xí)和深度學(xué)習(xí)過(guò)程中常用的一種數(shù)據(jù)準(zhǔn)備技術(shù)。通過(guò)對(duì)原始數(shù)據(jù)進(jìn)行變換和擴(kuò)充,以增加數(shù)據(jù)的多樣性和數(shù)量,提高模型的泛化能力。對(duì)圖像數(shù)據(jù)而言,可以對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行隨機(jī)變換、旋轉(zhuǎn)、裁剪等操作,增加數(shù)據(jù)多樣性;……。大模型的數(shù)據(jù)收集是一個(gè)煩瑣的工作過(guò)程。在開(kāi)始進(jìn)行數(shù)據(jù)收集之前,需要明確需求和目標(biāo),確定需要收集的數(shù)據(jù)類(lèi)型、數(shù)量,以及數(shù)據(jù)的質(zhì)量和來(lái)源。通常需要從互聯(lián)網(wǎng)爬取大量的數(shù)據(jù)。對(duì)大語(yǔ)言模型而言,需要從各種可靠來(lái)源收集文本數(shù)據(jù),如網(wǎng)站、電子書(shū)、新聞、論壇等。01數(shù)據(jù)清洗是數(shù)據(jù)預(yù)處理流程中至關(guān)重要的一環(huán),涉及在數(shù)據(jù)集中識(shí)別、糾正或刪除不準(zhǔn)確、不完整或不相關(guān)的數(shù)據(jù)。以訓(xùn)練大語(yǔ)言模型為例,具體的文本數(shù)據(jù)清洗包括去除重復(fù)值、處理缺失值和異常值、處理不一致數(shù)據(jù)等。去除重復(fù)值需要識(shí)別并刪除數(shù)據(jù)集中的重復(fù)記錄,確保數(shù)據(jù)的唯一性。0204033.3.2?模型選擇與設(shè)計(jì)設(shè)計(jì)大模型時(shí),需要根據(jù)待處理數(shù)據(jù)類(lèi)型和目標(biāo)任務(wù),選擇合適的模型類(lèi)型。根據(jù)問(wèn)題的復(fù)雜度和可用的計(jì)算資源進(jìn)行選擇,設(shè)計(jì)模型規(guī)模,包括層數(shù)、神經(jīng)元數(shù)量等。在設(shè)計(jì)模型規(guī)模時(shí),模型深度、寬度和連接方式是重點(diǎn)考慮的要素:深度對(duì)應(yīng)神經(jīng)網(wǎng)絡(luò)的層數(shù),增加模型深度可以提高其表示能力,但也增加了訓(xùn)練和推理的計(jì)算成本;寬度對(duì)應(yīng)神經(jīng)網(wǎng)絡(luò)每一層中并行神經(jīng)元的個(gè)數(shù),增加模型寬度同樣可以提高模型的學(xué)習(xí)能力,適用于處理大規(guī)模數(shù)據(jù);連接方式則用于提取數(shù)據(jù)之間的關(guān)聯(lián),可以根據(jù)需求選擇合適的連接方式,如全連接、卷積連接、注意機(jī)制等,對(duì)應(yīng)不同的網(wǎng)絡(luò)層和網(wǎng)絡(luò)結(jié)構(gòu),以更好地捕捉數(shù)據(jù)關(guān)聯(lián)。3.3.3?模型訓(xùn)練與優(yōu)化預(yù)訓(xùn)練對(duì)于大模型的重要性在近年來(lái)越來(lái)越凸顯。預(yù)訓(xùn)練可以使模型在大規(guī)模數(shù)據(jù)上學(xué)習(xí)通用的特征和知識(shí),且這些知識(shí)可以遷移到下游的特定任務(wù)中。預(yù)訓(xùn)練有助于賦予模型對(duì)于通用世界知識(shí)的學(xué)習(xí)能力,提高模型的泛化能力,使其對(duì)未見(jiàn)過(guò)的數(shù)據(jù)和任務(wù)具有更好的適應(yīng)性。大數(shù)據(jù)預(yù)訓(xùn)練→下游任務(wù)微調(diào)是深度神經(jīng)網(wǎng)絡(luò)常見(jiàn)的學(xué)習(xí)流程。大模型通常需要在一個(gè)相對(duì)通用、數(shù)據(jù)較充足的領(lǐng)域進(jìn)行預(yù)訓(xùn)練,然后遷移到另一個(gè)訓(xùn)練數(shù)據(jù)較少的領(lǐng)域,從而在新領(lǐng)域上取得更好的性能,這種遷移能力對(duì)于大模型尤為重要。在許多潛在的應(yīng)用領(lǐng)域,標(biāo)注數(shù)據(jù)是有限的,因此,可以利用大規(guī)模無(wú)標(biāo)簽數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練來(lái)提升模型性能,從而緩解數(shù)據(jù)稀缺問(wèn)題。預(yù)訓(xùn)練可以為模型提供一個(gè)良好的起點(diǎn),使其能夠不斷地進(jìn)行增量學(xué)習(xí)和更新,以適應(yīng)復(fù)雜的應(yīng)用場(chǎng)景和任務(wù)。因此,預(yù)訓(xùn)練在大模型實(shí)踐中扮演著至關(guān)重要的角色,對(duì)提升模型的泛化能力以及適應(yīng)性至關(guān)重要,是訓(xùn)練大規(guī)模深度學(xué)習(xí)模型的關(guān)鍵步驟之一。3.3.3?模型訓(xùn)練與優(yōu)化為適配大模型的訓(xùn)練優(yōu)化,需要采用分布式訓(xùn)練來(lái)實(shí)現(xiàn)高效的網(wǎng)絡(luò)模型參數(shù)優(yōu)化,利用分布式計(jì)算資源加速模型的訓(xùn)練,縮短訓(xùn)練時(shí)間。分布式訓(xùn)練是指通過(guò)將模型參數(shù)和訓(xùn)練數(shù)據(jù)分布在多個(gè)計(jì)算節(jié)點(diǎn)上并行處理,以加快訓(xùn)練速度和提高模型性能的過(guò)程。具體的分布式并行訓(xùn)練方式包括:數(shù)據(jù)并行訓(xùn)練和模型并行訓(xùn)練。01常用的通信機(jī)制包括:同步和異步通信。以模型并行訓(xùn)練為例,具體的分布式訓(xùn)練流程如下。①

初始化②

前向傳播③

反向傳播④

參數(shù)更新⑤

重復(fù)迭代02大模型的分布式訓(xùn)練仍存在一些待解決的問(wèn)題。首先:節(jié)點(diǎn)之間的通信會(huì)引入額外的開(kāi)銷(xiāo),特別是在模型并行訓(xùn)練中,需要高效的通信機(jī)制。其次:由于異步更新或延遲問(wèn)題,不同節(jié)點(diǎn)的數(shù)據(jù)可能出現(xiàn)不一致問(wèn)題,需要采取一致性策略。再次:分布式環(huán)境下的調(diào)試和監(jiān)控更加困難,需要有效的工具和技術(shù)來(lái)跟蹤和解決問(wèn)題。033.3.3?模型訓(xùn)練與優(yōu)化超參數(shù)是在訓(xùn)練模型之前需要設(shè)置的參數(shù),并不通過(guò)模型自身學(xué)習(xí)得到。對(duì)深度學(xué)習(xí)而言,超參數(shù)包括學(xué)習(xí)率、層數(shù)、節(jié)點(diǎn)數(shù)、正則化參數(shù)等。超參數(shù)調(diào)優(yōu)是模型訓(xùn)練的關(guān)鍵步驟,目的是找到最佳的超參數(shù)組合。

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論