【《AI技術(shù)的定義和常用算法簡介及分類分析概述》7400字】_第1頁
【《AI技術(shù)的定義和常用算法簡介及分類分析概述》7400字】_第2頁
【《AI技術(shù)的定義和常用算法簡介及分類分析概述》7400字】_第3頁
【《AI技術(shù)的定義和常用算法簡介及分類分析概述》7400字】_第4頁
【《AI技術(shù)的定義和常用算法簡介及分類分析概述》7400字】_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

AI技術(shù)的定義和常用算法簡介及分類分析概述目錄TOC\o"1-3"\h\u26866AI技術(shù)的定義和常用算法簡介及分類分析概述 1252061.1AI技術(shù)定義 1243101.2常用算法的分類 1234881.3常用算法的簡介 2179701.3.1決策樹 2320891.3.2隨機(jī)森林 3270411.3.3邏輯回歸 4204821.3.4支持向量機(jī) 5148231.3.5樸素貝葉斯 623171.3.6K-最近鄰算法 723741.3.7K均值聚類算法 8171651.3.8AdaBoost算法 971861.3.9神經(jīng)網(wǎng)絡(luò) 1173961.3.10馬爾科夫 121.1AI技術(shù)定義人工智能AI(ArtificialIntelligence)是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)[4]。AI技術(shù)是通過對人類思維模式的模擬,著重培養(yǎng)機(jī)器的思考、計算、判斷等多方面能力。目前,AI技術(shù)已經(jīng)日臻成熟,在教育、醫(yī)療、交通等領(lǐng)域都有較為廣泛的應(yīng)用[4]。我國政府對AI技術(shù)高度重視,在“十四五”規(guī)劃中就曾多次提及AI技術(shù),各級政府也出臺了對AI技術(shù)的扶持政策。我們可以預(yù)見,AI技術(shù)有著非常廣闊的發(fā)展空間,未來幾年,我國的AI技術(shù)產(chǎn)業(yè)也必將取得更長足的進(jìn)步。1.2常用算法的分類在數(shù)據(jù)分析的全過程中,數(shù)據(jù)挖掘是重中之重,而算法則是實(shí)現(xiàn)數(shù)據(jù)挖掘的強(qiáng)有力抓手。因此,對常見算法有足夠的了解是學(xué)習(xí)AI技術(shù)的基礎(chǔ)。AI技術(shù)主要有問題求解、人工生命等六個研究方向[5]。在這六個研究方向中,機(jī)器學(xué)習(xí)處于核心地位,因為機(jī)器學(xué)習(xí)的主要研究內(nèi)容是通過使用計算機(jī)從而模擬人類的行為,而這一研究內(nèi)容正是計算機(jī)實(shí)現(xiàn)智能化的根本手段,人工智能領(lǐng)域的常見算法也主要是機(jī)器學(xué)習(xí)領(lǐng)域的算法。機(jī)器學(xué)習(xí)發(fā)展至今已有半個多世紀(jì)的歷史,在這半個多世紀(jì)的研究過程中,先后經(jīng)歷了“無知”學(xué)習(xí)、概念學(xué)習(xí)、多概念學(xué)習(xí)。目前,該領(lǐng)域的主要研究方向有三個:(1)在執(zhí)行任務(wù)的過程中,對學(xué)習(xí)系統(tǒng)進(jìn)行分析并在后續(xù)進(jìn)行開發(fā),通過這一過程優(yōu)化完成任務(wù)的能力;(2)從心理學(xué)領(lǐng)域出發(fā),模擬人類學(xué)習(xí)階段的行為;(3)從理論出發(fā),研究學(xué)習(xí)方法的空間以及其他算法[6]。算法有很多不同的類別,本次研究中采用的分類方法是按照各個模型的訓(xùn)練方式進(jìn)行分類,不同類別所囊括的具有代表性的算法及其分類如圖2所示:圖2AI技術(shù)常見算法分類1.3常用算法的簡介在機(jī)器學(xué)習(xí)領(lǐng)域,常用的十種算法及其簡介如下:1.3.1決策樹一個完整的決策樹從上至下?lián)碛卸鄠€節(jié)點(diǎn),通過匹配不同節(jié)點(diǎn)設(shè)置的條件,最終實(shí)現(xiàn)將多個元素進(jìn)行分類(針對離散變量)或回歸(針對連續(xù)變量)的目標(biāo)[7]。決策樹目前聚焦的主要問題是生長問題和剪枝問題[7]。生長問題的解決過程也就是決策樹完成分類的全過程,在這一過程中,決策樹中的不同節(jié)點(diǎn)也就生長出了各自的分支。對于一個決策樹模型,在各個節(jié)點(diǎn)對不同的屬性進(jìn)行選擇,將其引導(dǎo)至不同分支,就是生長過程中的關(guān)鍵所在。決策樹算法中常見的ID3算法對屬性進(jìn)行選擇主要依靠于增益標(biāo)準(zhǔn),另一常見的C4.5算法則主要依靠于增益比率進(jìn)行選擇[7]。剪枝問題類似于農(nóng)業(yè)中對樹木的修剪,樹木剪去的是受損的、對整棵樹無益甚至有害的枝杈,而決策樹的剪枝主要是針對于可靠性較低的分支,剪枝的作用從本質(zhì)上講是將處理過程中出現(xiàn)的錯誤清除。通過分支可以使得分類過程中的速度得以顯著提高,同時也可以使得該模型能夠快速識別大量新數(shù)據(jù)[7]。決策樹的修剪又可細(xì)分為事前修剪與事后修剪。事前修剪是通過預(yù)見性判斷對當(dāng)前節(jié)點(diǎn)執(zhí)行操作,若判斷該節(jié)點(diǎn)無須劃分新分支,則該節(jié)點(diǎn)成為全新葉節(jié)點(diǎn)。事后修剪允許分支先行生長,再進(jìn)行修剪,較為常見的有以成本代價為依據(jù)的修剪方式。兩種修剪方式相比較而言,事前修剪這一方式所需的計算時間相對較短,但其可靠度也相對較低,在實(shí)際應(yīng)用中,也常會把二者結(jié)合應(yīng)用,這種混合修剪的方式可以使得二者的優(yōu)勢得以顯著地呈現(xiàn)[7]。下圖是一種常見的ID3算法決策樹模型,經(jīng)常用于判斷工廠中某些特定器件是否需要更換,保證工廠的效益與安全。其他類型的決策樹模型,原理與其基本相通,在具體應(yīng)用時根據(jù)其實(shí)際情況設(shè)置不同的條件即可[7]。圖3一種常見的決策樹模型[7]1.3.2隨機(jī)森林隨機(jī)森林是以決策樹為基礎(chǔ)而形成的一種更高級的算法。該算法作為一種非線性建模工具,因其自身優(yōu)勢巨大而備受學(xué)界關(guān)注。目前,隨機(jī)森林在數(shù)據(jù)挖掘領(lǐng)域的應(yīng)用非常廣泛,在生物信息學(xué)領(lǐng)域也屬于較為前沿的研究方向[8]。隨機(jī)森林的原理是在原始樣本中通過重抽樣的方法抽出若干個樣本,再進(jìn)行建模、預(yù)測等流程,最后,采用投票的形式對結(jié)果進(jìn)行抉擇。由于該模型綜合采用了多個模型組合進(jìn)行預(yù)測,具有準(zhǔn)確率高、寬容度好的優(yōu)勢,并且極少出現(xiàn)過擬合的現(xiàn)象[8]。該算法不會出現(xiàn)過擬合是因為當(dāng)分類模型數(shù)量足夠多時,余量函數(shù)會服從于強(qiáng)大數(shù)定律,成為一個處處收斂的函數(shù)[8]。隨機(jī)森林產(chǎn)生最終預(yù)測結(jié)果的大致操作流程如圖4所示:圖4隨機(jī)森林示意圖[8]隨機(jī)森林后又衍生出隨機(jī)生存森林、分位數(shù)回歸森林等類型。隨機(jī)生存森林與經(jīng)典隨機(jī)森林的操作步驟基本一致,區(qū)別在于隨機(jī)生存森林在各個節(jié)點(diǎn)處不會將全部變量抽取,而是隨機(jī)抽取m個變量,并以此為不同的分割點(diǎn)提供適當(dāng)?shù)倪x取范疇[8]。Ishwaran等人認(rèn)為對于高維數(shù)據(jù)而言,隨機(jī)生存森林由于其自身具有的一致性,因此在最終效果上普遍會優(yōu)于其他生存分析方法[9]。分位數(shù)隨機(jī)森林會通過對觀測值取均值得到預(yù)測值,進(jìn)而確定最終的預(yù)測結(jié)果[8]。1.3.3邏輯回歸邏輯回歸是機(jī)器領(lǐng)域的一種常見算法,主要應(yīng)用于非線性領(lǐng)域,從二分類問題開始,通過對該算法的不斷修正,逐步開始涉足較為復(fù)雜的解決多分類問題的方法[8]。由于二分類問題中輸出的y值只能為0或1,而不能輸出0與1之間的其他值,因此需要尋找一個連續(xù)性的函數(shù),以此將連續(xù)值轉(zhuǎn)化為離散的二值,而邏輯回歸的方法就很適宜完成這一轉(zhuǎn)化[10]。邏輯回歸首先要構(gòu)造一個假設(shè)函數(shù),多變量線性回歸問題是解決這一問題的基礎(chǔ),通過對多個變量的綜合考量,最終得到一個線性組合。在二分類問題中,假設(shè)函數(shù)的取值應(yīng)介于0、1之間,且其最終輸出的結(jié)果應(yīng)為離散的二值,在經(jīng)過Sigmoid函數(shù)的非線性運(yùn)算之后,僅能對其區(qū)間做出限制,但輸出的仍為連續(xù)值。為實(shí)現(xiàn)輸出值的離散化,可以設(shè)定一個合理的決策邊界,最終實(shí)現(xiàn)輸出離散值的目標(biāo)。如下圖即為λ=0.1時的分類邊界[10]。圖5λ=0.1時的分類邊界[10]在實(shí)際問題中,常應(yīng)用代價函數(shù)來評價最終的擬合效果,代價函數(shù)越大則最終的擬合效果越差。而對于模型參數(shù)的改進(jìn)過程而言,權(quán)值的不斷改變就在使得代價函數(shù)的值不斷減小,亦即使得最終的擬合效果越好。參數(shù)優(yōu)化方法也是邏輯回歸法中的一個重要參考因素[10]。邏輯回歸方法目前面臨的一大難題就是在構(gòu)造假設(shè)函數(shù)之后,因其變量較多,若現(xiàn)有的數(shù)據(jù)集無法對該模型進(jìn)行有效約束,則極易發(fā)生過擬合現(xiàn)象。為了在最大程度上避免該問題,通常采用兩種策略,一種是對代價函數(shù)以及假設(shè)函數(shù)的算法進(jìn)行修改,另一種方法是對權(quán)值的迭代方法進(jìn)行更新,以上兩種策略都可使得邏輯回歸正則化。在邏輯回歸實(shí)現(xiàn)正則化之后,就可應(yīng)用邏輯回歸的方法解決實(shí)際應(yīng)用中的各種非線性分類問題[10]。1.3.4支持向量機(jī)支持向量機(jī)模型屬于前文所屬的機(jī)器學(xué)習(xí)模式中的監(jiān)督學(xué)習(xí)類,由于其具備良好的理論、數(shù)據(jù)支撐。一方面,核函數(shù)可以使核函數(shù)的優(yōu)勢得以保持;另一方面,核函數(shù)可以使支持向量機(jī)在非線性領(lǐng)域正常運(yùn)行;與此同時,核函數(shù)還可以在很大程度上提高分類的準(zhǔn)確性[11]。在現(xiàn)實(shí)應(yīng)用中,支持向量機(jī)憑借其優(yōu)良的分類能力,廣泛應(yīng)用于計算機(jī)視覺、工業(yè)工程、航空等領(lǐng)域,特別是在文字識別、人體部位識別、車輛檢測、醫(yī)療檢測等方面發(fā)揮著不可替代的作用[11]。為了使得模型不受樣本量的限制,支持向量機(jī)采用了統(tǒng)計學(xué)習(xí)理論;為了避免模型在訓(xùn)練時出現(xiàn)問題,支持向量機(jī)還須遵循結(jié)構(gòu)風(fēng)險最小化原則?;谝陨蟽煞矫妫С窒蛄繖C(jī)在技術(shù)推廣以及判別方面有著較大的優(yōu)勢,這一優(yōu)勢使得它能較為準(zhǔn)確地尋找到最優(yōu)分類超平面。最優(yōu)分類超平面的問題劃歸到數(shù)學(xué)層面,則成為了求一個二次函數(shù)的解,這個解可以使得各個數(shù)據(jù)樣本分類的間隔達(dá)到最大。圖6所示是一種線性可分情況下的最優(yōu)分類線[11]。圖6一種最優(yōu)分類線[12]在引入新模型之前,支持向量機(jī)無法勝任非線性領(lǐng)域的任務(wù)。而當(dāng)核函數(shù)與最優(yōu)分類判別面組成了一個全新的模型,非線性問題也能迎刃而解[11]。為了使支持向量機(jī)能夠應(yīng)對龐大的數(shù)據(jù),并依次對其進(jìn)行有效的識別、分類,研究人員將核函數(shù)應(yīng)用于這一分類過程,使得低維空間中非線性不可分?jǐn)?shù)據(jù)映射到高維空間,通過對核函數(shù)進(jìn)行合理的選取,解決了原來在低維特征空間中無法構(gòu)造分類超平面的問題,并對不同核函數(shù)所具備的優(yōu)劣勢進(jìn)行對比分析,將表現(xiàn)最優(yōu)的核函數(shù)應(yīng)用到對數(shù)據(jù)進(jìn)行分類的過程當(dāng)中,在很大程度上提高了支持向量機(jī)的效率[11]。1.3.5樸素貝葉斯貝葉斯算法是一種應(yīng)用廣泛、操作簡單的算法。樸素貝葉斯算法是貝葉斯算法中的一個重要分支,其具備穩(wěn)定性好、準(zhǔn)確率高、可操作性強(qiáng)等優(yōu)勢[13]。如下圖是四種分類模型在對20NG文本數(shù)據(jù)集子集進(jìn)行操作的完成情況對比,由圖可知,樸素貝葉斯模型在分類領(lǐng)域具備很大的優(yōu)勢。圖7四種分類模型對比[16]樸素貝葉斯的分類原理較為簡單,應(yīng)用公式根據(jù)先驗概率推導(dǎo)后驗概率,后驗概率相對較大的類別作為即可作為該對象所屬的類別。按照這一思路,假定不同樣本所具有的特征相互獨(dú)立,進(jìn)而實(shí)現(xiàn)集簡單與高效于一體的分類模型,即為NBC模型,其性能強(qiáng)大,與決策樹分類器、神經(jīng)網(wǎng)絡(luò)分類器不相上下[14]。在現(xiàn)實(shí)生活中,大多數(shù)事件都是存在關(guān)聯(lián)且相互依存的,但由于使用樸素貝葉斯算法的前提是各基礎(chǔ)元素相互獨(dú)立,因此,樸素貝葉斯算法的局限性是很明顯的。使用樸素貝葉斯算法完成分類操作的質(zhì)量不僅取決于對構(gòu)造方法的選擇合理與否,也取決于待分類數(shù)據(jù)的外在特性[13]。在樸素貝葉斯分類問題中,所有特征都會在分類的過程中發(fā)揮其各自的作用。但在實(shí)際應(yīng)用中,經(jīng)常會遭遇數(shù)據(jù)缺失的問題,由于“短板效應(yīng)”的存在,樸素貝葉斯最終完成的分類效果實(shí)際上就取決于缺失數(shù)據(jù)的填補(bǔ)效果[14]。目前。研究人員都在通過種種辦法對樸素貝葉斯模型進(jìn)行改進(jìn)。北京交通大學(xué)的張春等人提出,以元素之間的關(guān)聯(lián)性及其可信度為依據(jù),對不同條件屬性進(jìn)行加權(quán),再根據(jù)前述關(guān)聯(lián)性將所有元素按是否包括類標(biāo)號為依據(jù)分為兩類。包括類標(biāo)號一類的規(guī)則中,條件屬性與其決策屬性有著很強(qiáng)的關(guān)聯(lián)性,而不包括類標(biāo)號的另一類的相關(guān)度則較差。在實(shí)際應(yīng)用中,可將樸素貝葉斯算法和云計算搭配使用,進(jìn)而提高不同場景中的分類效率[15]。1.3.6K-最近鄰算法在機(jī)器學(xué)習(xí)的眾多算法中,K-最近鄰算法是最為簡單的之一,該算法屬于惰性算法,通過其他實(shí)例為自己的正確運(yùn)算提供依據(jù)[17]。K-最近鄰算法進(jìn)行數(shù)據(jù)挖掘的基本思想是類比法,其正常運(yùn)行的關(guān)鍵在于找出與目標(biāo)樣本最為接近的K個訓(xùn)練樣本,通過歐幾里得距離定義對其近鄰性進(jìn)行定義,則目標(biāo)樣本的類別被判別為K個訓(xùn)練樣本中最公共的類[18]。換言之,在一個空間中,若大多數(shù)元素均屬于某一類別,則該空間中相似程度最高的K個元素也屬于該類別。目前,K-最近鄰算法在圖像識別領(lǐng)域應(yīng)用廣泛,對人臉及文字識別均有很高的正確率,而其在醫(yī)學(xué)領(lǐng)域也可用于對癌癥的檢測、對腦部圖像進(jìn)行精確的分類等[17]。在模式分類中,K-最近鄰算法是表現(xiàn)最優(yōu)的算法之一。與此同時,K-最近鄰算法的運(yùn)行極為簡單,大致可分為兩步:(1)通過一定距離的度量,在搜索訓(xùn)練集中確定一個唯一的K值;(2)進(jìn)行分類,將大多數(shù)元素歸為一致的類[17]。K-最近鄰算法采用的數(shù)學(xué)模型是“消極”算法,在這個“消極”算法當(dāng)中,有若干個訓(xùn)練數(shù)據(jù),有一個即將用于分類或者回歸查詢的實(shí)例,最終呈現(xiàn)出一個結(jié)果,按實(shí)例可為分類的結(jié)果,也可以是回歸的結(jié)果,在這一過程中,對回歸查詢進(jìn)行分類的依據(jù)是該算法中存在的大多數(shù)的類[17]。該算法的流程如圖8所示。圖8kNN算法流程圖[17]當(dāng)然,K-最近鄰算法也存在著一些難以避免的劣勢:由于該算法的程序是在測試分類集前的時間點(diǎn)才可以構(gòu)造出模型,因此會耗費(fèi)大量的存儲空間[21]。在處理規(guī)模較大的數(shù)據(jù)集時,用于數(shù)據(jù)處理的時間很長,最終所呈現(xiàn)結(jié)果也較為復(fù)雜。因此,研究人員針對這些情況進(jìn)行了許多有益的改進(jìn)[17]。如Fuzzy-kNN算法,該方法主要的改進(jìn)之處在于可以處理較大規(guī)模的數(shù)據(jù)集,并可以對各個實(shí)例與類之間存在關(guān)系進(jìn)行明確的界定,這一算法不僅大大提高了分類的效率,同時也兼顧了分類的準(zhǔn)確度[19]。又如多標(biāo)簽學(xué)習(xí)kNN算法,該算法的主要適用于不可見的實(shí)例,為這些用傳統(tǒng)kNN算法無法解決的對象確定了正確的標(biāo)簽集[20]。1.3.7K均值聚類算法聚類分析的特點(diǎn)在于需要對大量數(shù)據(jù)進(jìn)行分析,挖掘出數(shù)據(jù)背后的結(jié)構(gòu),使得數(shù)據(jù)歸類的過程實(shí)現(xiàn)自動化,最終得到數(shù)據(jù)分布的大致信息,為決策者做出正確決定提供參考依據(jù)[22]。K均值聚類算法最大的優(yōu)勢在于集高效與簡單于一身,并且還可以對不同類型的數(shù)據(jù)進(jìn)行聚類分析,正是由于該算法具備的優(yōu)勢明顯,因此有著非常廣泛的應(yīng)用范圍。當(dāng)然,K均值聚類算法也有一些難以避免的缺陷,如K值的確定難度較大,但在實(shí)際操作中常常由人工完成該數(shù)據(jù)的輸入,這會對最終分析得出的效果造成較大影響;聚類中心的選擇過程中存在較大的隨機(jī)性,但聚類分析的結(jié)果主要取決于最初確定的聚類中心,因此聚類分析的最終結(jié)果也可能存在較大的隨機(jī)性;該算法中的聚類中心是由各聚類數(shù)據(jù)的均值產(chǎn)生,當(dāng)個別數(shù)據(jù)存在異?,F(xiàn)象時,得出的聚類中心準(zhǔn)確度就會大打折扣,這就造成了該算法的敏感度較高的缺點(diǎn)[22]。K均值聚類算法的具體操作流程中,首先要設(shè)置好不同類別的初始值,再將其他數(shù)據(jù)與初始值的距離計算得出,最終將不同數(shù)據(jù)歸類到對應(yīng)的組別。在第一輪歸類過程結(jié)束之后,將每一組別的均值設(shè)定為下一輪的中心點(diǎn),經(jīng)過若干輪的相同流程后若各組別所含元素保持不變則流程結(jié)束[23]。該算法基本流程如圖9所示。在實(shí)際應(yīng)用中,常常用中心誤差的平方和對聚類分析的最終結(jié)果做出評價。在評價過程中,需要確定一個數(shù)據(jù)對象,找到該對象所在的聚類域,并通過一個目標(biāo)函數(shù)將二者聯(lián)系起來。對最終得到的平方和進(jìn)行分析,誤差平方和的數(shù)值越小,則表明最終得到的聚類分析結(jié)果越好[22]。圖9K均值聚類算法[24]1.3.8AdaBoost算法AdaBoost是從全局出發(fā),考慮分類效果不理想的多個分類器,最終實(shí)現(xiàn)分類器質(zhì)量提升的一種算法。將多個效果一般的數(shù)據(jù)結(jié)果綜合考慮,將使得整體的可信度大幅提升,最后通過不同特征的權(quán)重預(yù)測結(jié)果[25]??梢詫⒃鰪?qiáng)學(xué)習(xí)應(yīng)用于學(xué)習(xí)器的構(gòu)造之中,發(fā)揮其巨大價值。增強(qiáng)學(xué)習(xí)也可以應(yīng)用于目前的各種主流機(jī)器學(xué)習(xí)算法,并在很大程度上提高原算法的預(yù)測精度[25]。AdaBoost是目前人臉檢測領(lǐng)域效率最高的算法之一,該算法依據(jù)人臉圖像中所呈現(xiàn)出來的灰度分布特性,提取其haar特征用于分析,計算過程簡單,提取過程高效[28]。圖10所示是一種基于該算法的人臉檢測流程。圖10應(yīng)用該算法的人臉檢測過程[28]作為數(shù)據(jù)挖掘領(lǐng)域的十大算法之一,AdaBoost是表現(xiàn)最優(yōu)的增強(qiáng)學(xué)習(xí)算法,該算法問世之后,國內(nèi)外眾多專家學(xué)者投入到了針對于它對的研究當(dāng)中,為其現(xiàn)如今的在理論層面的支撐打下了非常堅實(shí)的基礎(chǔ)。與此同時,AdaBoost也在實(shí)踐中也取得了較為理想的效果。AdaBoost可以應(yīng)用在學(xué)習(xí)算法的設(shè)計階段,為其帶來全新的思路以及具體策略。其次,該算法通過對全新技巧的采用,重塑了原有的樣本分布[25]??梢哉J(rèn)為,AdaBoost是一種具備自適應(yīng)特性的增強(qiáng)學(xué)習(xí)算法,它可以根據(jù)實(shí)際情況,靈活地調(diào)整不同訓(xùn)練樣本的權(quán)重,在不同權(quán)重的前提下篩選表現(xiàn)最優(yōu)的弱分類器,對當(dāng)前得到的弱分類器進(jìn)行系統(tǒng)的整合,將其整合為強(qiáng)分類器[26]。AdaBoost算法的精確度極高,但是算法只能為分類流程提供框架,只有構(gòu)造出若干可正常運(yùn)轉(zhuǎn)的子分類器,才能使該算法流暢地應(yīng)用于現(xiàn)實(shí)中的場景,實(shí)現(xiàn)二分類或多分類的目標(biāo)[27]。在AdaBoost算法首次被提出時,F(xiàn)reund等人就明確了在二分類以及更復(fù)雜的多分類問題中應(yīng)用該算法的策略。在此之后,F(xiàn)reund等人又為在訓(xùn)練過程中獲得的分類器設(shè)置了不同的置信度,這一策略為評價該算法提供了較為完善的標(biāo)準(zhǔn),同時也將該算法在分類過程中的精確度大大提高[26]。1.3.9神經(jīng)網(wǎng)絡(luò)在神經(jīng)網(wǎng)絡(luò)應(yīng)用的場景,必須著重考慮其模型與算法的更新迭代,否則極容易出現(xiàn)過擬合等問題[29]。神經(jīng)網(wǎng)絡(luò)的主要優(yōu)勢體現(xiàn)在其出色的大數(shù)據(jù)處理能力,數(shù)據(jù)量越大處理效果越好,且其計算能力可以在極端的時間內(nèi)完成指數(shù)級的增長。隨著互聯(lián)網(wǎng)信息量呈幾何級增長,對海量信息的分析、處理成為了亟待解決的問題。這時,引入機(jī)器參與這一過程成為了不二選擇,但正如我們所知,機(jī)器沒有情感,即使科研人員為其編輯特定的情感,也無法與人類極為豐富的情感相適應(yīng),而通過對神經(jīng)網(wǎng)絡(luò)的研究、改進(jìn),研究人員將其成功應(yīng)用在情感分析領(lǐng)域,很大程度上發(fā)揮出了其具備的多重優(yōu)勢[30]。神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)中,輸入層完成信號的輸入工作,隱藏層用于對輸入信號的處理,輸出層發(fā)揮的作用是將處理完成的相關(guān)內(nèi)容進(jìn)行輸出。隱藏層發(fā)揮的作用是將輸入層與輸出層連接,通過第一個隱藏層接收信息,通過最后一個隱藏層傳出信息[30]。神經(jīng)網(wǎng)絡(luò)的模型如圖11所示。圖11神經(jīng)網(wǎng)絡(luò)模型[30]在完成神經(jīng)網(wǎng)絡(luò)的設(shè)計之后

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論