版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
人工智能基礎及應用1第4章機器學習4.1機器學習概述4.2監(jiān)督學習4.3無監(jiān)督學習4.4弱監(jiān)督學習2本章學習目標
理解機器學習的定義、基本術語及三個視角。掌握監(jiān)督學習、無監(jiān)督學習的基礎知識和典型算法。了解弱監(jiān)督學習的三種方法和應用場景。344.1機器學習概述4.1.1
機器學習的定義機器學習主要有以下幾種定義。(1) 機器學習主要研究如何在經驗學習中改善計算機算法的性能。(2)機器學習是研究用數據或以往的經驗來優(yōu)化計算機程序性能的科學。(3)機器學習是一門研究機器獲取新知識和新技能,并識別現(xiàn)有知識的學問。(4)機器學習研究算法和數學模型,用以逐步提高計算機系統(tǒng)在特定任務上的性能。深度學習=大數據+高性能計算+靈巧的算法人工智能機器學習深度學習成功實現(xiàn)AI應用的三要素:算法(菜譜)算力(廚具)數據(食材)AI、MachineLearning(ML)、DeepLearning(DL)的關聯(lián)64.1.1機器學習的定義目前為止,尚未有一個公認的機器學習定義。而作者認為:機器學習是研究如何使機器模擬或實現(xiàn)人類的學習行為,以獲取知識和技能,并不斷改善系統(tǒng)自身性能的學科。機器學習是一門多領域交叉學科,涵蓋概率論、統(tǒng)計學、逼近論、凸分析、算法復雜度理論等多門學科的知識、理論和方法。它的根本任務是數據的智能分析與建模,并從數據中挖掘出有價值的信息。其目標是要構建可以從數據中學習、并對數據進行預測的系統(tǒng)。74.1.1機器學習的定義機器學習是AI的一個分支,是其中最具智能特征、最前沿的研究領域之一,是AI的核心和研究熱點。機器學習是實現(xiàn)人工智能的關鍵和重要途徑。機器學習理論和方法在基于知識的系統(tǒng)、自然語言理解、語音識別、計算機視覺、機器人、模式識別、生物信息學等許多領域得到了廣泛應用。一個系統(tǒng)是否具有學習能力已成為評判其是否具有“智能”的一個標準。機器學習的研究主要分為兩大類:基于統(tǒng)計學的傳統(tǒng)機器學習:主要研究學習機制,注重探索模擬人的學習機制,研究方向包括:支持向量機、決策樹、隨機森林等。基于大數據和人工神經網絡的深度學習:主要研究如何充分利用大數據時代下的海量數據,采用深度學習技術構建深度神經網絡,從中獲取隱藏的、有效的、可理解的知識。人工智能與機器學習人類學習人類是從觀察中積累經驗來獲取技能。機器學習機器是從數據中積累或者計算的經驗中獲取技能。機器模擬人類的學習行為.Text,value,video,audio,image,etc894.1.2機器學習的基本術語1.數據集(Dataset)
數據集是指數據的集合。例如(20301001,張三,175cm,70kg)。2.樣本(Sample)樣本也稱為實例(Instance),指待研究對象的個體,包括屬性已知或未知的個體。例如,每個學生所對應的一條記錄就是一個“樣本”。數據集即為若干樣本的集合。3.標簽(Label)標簽是為樣本指定的數值或類別。在分類問題中,標簽是樣本被指定的特定類別;在回歸問題中,標簽是樣本所對應的實數值。已知樣本是指標簽已知的樣本,未知樣本是指標簽未知的樣本。104.1.2機器學習的基本術語4.特征(Feature)特征是指樣本的一個獨立可觀測的屬性或特性。它反映樣本在某方面的表現(xiàn)或性質,例如“姓名”“身高”是“特征”或“屬性”。特征的取值,例如“張三”“175cm”是“特征值”或“屬性值”。5.特征向量(FeatureVector)特征向量是由樣本的n個屬性組成的n維向量,第i個樣本Xi表示為:特征分為手工式特征也稱為設計式特征,是指由學者構思或設計出來的特征,如SIFT、HOG等。學習式特征是指由機器從原始數據中自動生成的特征。例如,通過卷積神經網絡獲得的特征就屬于學習式特征。手工式特征/設計的特征例如:用邊緣檢測算子提取的邊緣特征。HOG(HistogramofOrientedGradients,定向梯度直方圖)HOG特征11學習式特征邊緣特征124.1.2機器學習的基本術語6.特征空間(FeatureSpace)特征空間是指特征向量所在的p維空間,每一個樣本是該空間中的一個點。特征空間也稱為樣本空間。例如,將“身高”“體重”作為兩個坐標軸,它們就形成了用于描述學生體態(tài)的二維空間,每個學生在此特征空間中都能找到自己的位置坐標。134.1.2機器學習的基本術語通常將數據集分成訓練集、驗證集和測試集,需要保證這三個集合是不相交的。(1)訓練集(TrainingDataset)訓練過程中使用的數據稱為“訓練數據”,其中每個訓練數據稱為一個“訓練樣本”;每個訓練樣本都有一個已知標簽,由所有訓練樣本及其標簽組成的集合稱為“訓練集”。訓練集包括一個樣本集和一個對應的標簽集,用于學習得到擬合樣本的模型。一般地,訓練集中的標簽都是正確的,稱為真實標簽(Ground-Truth)。例如,在圖像分類任務中,訓練集包括一個由特定圖像組成的樣本集合一組由語義概念(如山、水、樓等)組成的標簽集合,標簽即為Ground-Truth。144.1.2機器學習的基本術語(2)驗證集(ValidationDataset)在實際訓練中,有時模型在訓練集上的結果很好,但對于訓練集之外的數據的結果并不好。此時,可單獨留出一部分樣本,不參加訓練,而是用于調整模型的超參數,并對模型的能力進行初步評估,這部分數據稱為驗證集。超參數(hyperparameter)是指模型中人為設定的、無法通過訓練得到的參數,如NN的層數、卷積的尺寸、濾波器的個數、KNN和K-Means算法中的K值等。(3)測試集(TestDataset):測試過程中使用的數據稱為“測試數據”,被預測的樣本稱為“測試樣本”,測試樣本的集合稱為“測試集”。測試集不參與模型的訓練過程,僅用于評估最終模型的泛化能力。154.1.2機器學習的基本術語7.泛化能力(GeneralizationAbility)泛化能力是指訓練得到的模型對未知樣本正確處理的能力,即模型對新樣本的適應能力,亦稱為推廣能力或預測能力。
164.1.2機器學習的基本術語9.學習算法(learningalgorithm)希望為每個樣本x預測的標簽與其所對應的真實標簽都相同,這就需要有一組好的模型參數θ。為了獲得這樣的參數θ,則需要有一套學習算法來優(yōu)化函數f
,此優(yōu)化過程稱為學習(Learning)或者訓練(Training),擬合函數f稱為模型(Model)。10.假設空間(hypothesisspace)從輸入空間至輸出空間的映射可以有多個,它們組成的映射集合稱為假設空間。學習的目的:在此假設空間中選取最好的映射,即最優(yōu)的模型。用訓練好的最優(yōu)模型對測試樣本進行預測的過程稱為測試。174.1.2機器學習的基本術語
184.1.2機器學習的基本術語12.風險函數(RiskFunction)風險函數又稱期望損失(ExpectedLoss)或期望風險(ExpectedRisk),是所有數據集(包括訓練集和預測集)上損失函數的期望值,用于度量平均意義下模型預測的好壞。機器學習的目標是選擇風險函數最小的模型。194.1.2機器學習的基本術語
204.1.2機器學習的基本術語14.機器學習的基本流程是:數據預處理→模型學習→模型評估→新樣本預測。①數據預處理收集并處理數據,有時還需要完成數據增強、裁剪等工作,劃分訓練集、驗證集、測試集。②模型學習,即模型訓練在訓練集上運行學習算法,利用損失函數和優(yōu)化算法求解一組模型參數,得到風險函數最小的最優(yōu)模型。一般在訓練集上會反復訓練多輪,即訓練樣本被多次利用。214.1.2機器學習的基本術語③模型評估將驗證集樣本輸入到學習獲得的模型中,用以評估模型性能,還可以進一步調節(jié)模型的超參數,找到最合適的模型配置。常用的模型評估方法為K折交叉驗證。通常所說的“模型調參”一般指的是調節(jié)超參數,而不是模型參數。④新樣本預測將測試集中的樣本輸入到訓練好的模型中,對比預測的結果與真實值,計算出各種評價指標,以此來評價模型的泛化能力。例如,圖像分類任務有精確率(Precision)和召回率(Recall)等評價指標。4.1.2機器學習術語22從機器學習的基本流程可知,學習算法有三個基本要素:模型(哪一類模型:線性模型、概率模型、非線性模型、網絡模型)損失函數(學習準則、學習策略):選出什么損失函數來衡量錯誤的代價,才能找到最優(yōu)的模型參數。優(yōu)化算法,也稱為優(yōu)化器,最簡單也最常用的優(yōu)化算法是梯度下降法。這三個要素都需要學者根據經驗人為確定。234.1.3機器學習的三個視角從三個視角來介紹機器學習算法:學習任務、學習范式和學習模型。學習任務(LearningTasks)是指可以用機器學習方法解決的通用問題。機器學習中的典型任務包括:(1)分類(Classification)是將輸入數據劃分成兩個或多個類別。輸出值是離散的。例如,垃圾郵件過濾、人臉識別、銀行用戶信用評級、手寫體字符和數字識別等。解決此類任務的典型算法有:支持向量機、K-近鄰、樸素貝葉斯、決策樹、邏輯回歸算法等。例4.1圖像分類的機器學習2424例4.2歸納規(guī)律(預測判斷)25例4.3信用評分二分類:低風險和高風險客戶。根據客戶信息,將其歸為二類中的一類。用過去的數據訓練之后,可以學習得到如下分類規(guī)則:26271.學習任務(2)回歸(Regression)是確定某些變量之間定量關系的一種統(tǒng)計分析方法,即建立數學模型并估計未知參數?;貧w就是找到一個函數,給定一個輸入特征值X,便能輸出一個與之相對應的連續(xù)數值(不是離散的)。常用于預測股票行情、二手車價格、身高、體重、醫(yī)學診斷等。與分類問題不同,回歸預測的是數值而不是類別。解決此類任務的典型算法有:多元線性回歸、貝葉斯線性回歸(BayesianLinearRegression)、多項式回歸等算法。例4.4身高預測(預測數值回歸)2828291.學習任務(3)聚類(Clustering)是指將具體的或抽象的對象的集合分成由相似對象組成的多個不知名稱的組(Group)或簇(Cluster)的過程。此處,不用“類別”一詞代替“組”或“簇”,以示與“分類”任務的區(qū)別。聚類也稱為聚類分析,在日常生活和工作中已有廣泛的應用。例如,可以采用聚類方法,根據用戶行為、銷售渠道、商品等原始數據,將相似的市場和用戶聚集在一起,以便找準潛在的目標客戶和市場。解決此類任務的典型算法有:K均值聚類(也有人稱其為C均值聚類)、層次聚類、模糊C均值聚類、基于密度的聚類等。301.學習任務(4)排名(Ranking)是指依據某個準則對項目進行排序。主要應用場景是各大搜索引擎對基于關鍵詞的查詢結果的條目進行排序。解決此類任務的典型算法有網頁排名(PageRank)算法,它是一種利用網頁(節(jié)點)之間的超鏈接數據進行計算的技術,用于對搜索到的結果列表進行評估和排名,以體現(xiàn)網頁與特定查詢的相關性和重要性。(5)降維(DimensionalityReduction)是指通過將輸入數據從高維特征空間映射到低維特征空間,去除無用、冗余的特征,降低學習的時間復雜度和空間復雜度。具體應用有特征工程中的特征選擇(選擇最有效的特征子集)、數據可視化(低維數據易于可視化)。解決降維的典型算法有主成分分析法(PCA)、線性判別分析(LDA,又稱為Fisher線性判別,F(xiàn)DA)、多維縮放(MDS)等。2.學習范式(LearningParadigms)是指機器學習的場景或模式。根據機器學習模型訓練時所使用的數據集的完整性和質量,通常將機器學習分為:(1)監(jiān)督學習(SupervisedLearning)。監(jiān)督學習是指采用一組有標注的數據樣本對模型進行訓練,再用訓練好的模型對未知樣本做出預測。也可以理解為:利用有標注的數據學習到一個模型,用以建立從輸入到輸出的一種映射關系,再用該模型對測試數據集中的樣本進行預測。監(jiān)督學習的訓練數據由兩部分組成,即描述事件/對象的特征向量(x)和真實標簽(y),有訓練模型的過程。需要采用監(jiān)督學習方法完成的學習任務主要包括:分類、回歸和排名。典型的監(jiān)督學習方法有:SVM、KNN、線性回歸、決策樹、隱馬爾可夫模型等。312.學習范式322.學習范式(2)無監(jiān)督學習(UnsupervisedLearning)。由于缺乏足夠的先驗知識,因此難以人工標注數據類別,或者人工標注的成本太高,導致數據缺少標注信息,即缺少真實標簽。在此情況下,利用未標記(類別未知)的數據樣本解決模式識別中的各種問題,稱為無監(jiān)督學習。相比于監(jiān)督學習的訓練數據,無監(jiān)督學習的數據只是其中的一個部分,即只有描述事件/對象的特征向量(x),但是沒有標簽(y),且沒有訓練模型的過程。無監(jiān)督學習的效果一般比較差。需要采用無監(jiān)督學習方法完成的學習任務主要包括:聚類和降維。典型的無監(jiān)督學習方法有:K-Means聚類、主成分分析法(PCA)等。332.學習范式(3)弱監(jiān)督學習(WeaklySupervisedLearning)。弱監(jiān)督學習介于監(jiān)督學習和無監(jiān)督學習之間,它利用帶有弱標簽的訓練數據集進行監(jiān)督學習,同時利用大量無標簽數據進行無監(jiān)督學習。弱標簽是指標注質量不高的標簽,即標簽信息可能不完全、不確切、不準確。根據訓練時所使用數據的質量,弱監(jiān)督學習分為不完全監(jiān)督學習不確切監(jiān)督學習不準確監(jiān)督學習雖然將弱監(jiān)督學習分為了上述三種類別,但在實際操作中,它們經常同時發(fā)生。不完全監(jiān)督學習又包括:主動學習、半監(jiān)督學習、遷移學習、強化學習。以上各個學習范式的分類并不是嚴格互斥的。(3)概率模型。采用概率模型來表示隨機變量之間的條件相關性,其典型算法包括:貝葉斯網絡、概率規(guī)劃和線性回歸等方法。(4)網絡模型。采用網絡模型構建機器學習算法,典型的淺層網絡有感知機,深層網絡有各種深度CNN。343.學習模型3.學習模型(LearningModels)用于表示可以完成一個學習任務的方法。(1)幾何模型。可采用線、面或距離等幾何圖形模型來構建學習算法。用于學習線性模型的算法有線性回歸,用于學習二維平面模型的算法有支持向量機,用于學習距離模型的算法有KNN。(2)邏輯模型。用邏輯模型來構建學習算法,其典型算法包括歸納邏輯編程和關聯(lián)規(guī)則算法。354.2監(jiān)督學習監(jiān)督學習是在機器學習算法中占據絕大部分的一種十分重要的方法。監(jiān)督學習是在已知標簽(即監(jiān)督信息)的訓練集上學習出一個模型,當向此模型輸入新的樣本(也稱為未知數據,即測試集中的樣本)時,可以預測出其所對應的輸出值。期望輸出:
cat期望輸出:dog364.2.1監(jiān)督學習的步驟(1)
4.2.1監(jiān)督學習的步驟(2)
評價監(jiān)督學習的性能若所學習到的模型能很好地擬合訓練集,這種擬合能力稱為學習能力或訓練能力或逼近能力。希望:訓練好的模型對測試集也能輸出正確的結果。這種適應新樣本的能力稱為預測能力或泛化能力或推廣能力。若所構造的模型不能很好地擬合(逼近)訓練數據,稱之為“欠擬合”。若模型能比較好地擬合(逼近)訓練數據,稱之為“良擬合”。一般情況下,隨著訓練能力的提高,預測能力也會提高。但這種趨勢并不是固定的,有時當達到某個極限時,隨著訓練能力的提高,預測能力反而會下降,這種現(xiàn)象稱為“過擬合”,即訓練誤差變小,測試誤差也會隨之減小,然而減小到某個值后,測試誤差卻反而開始增大。通常,在訓練數據不足或模型過于復雜時,會導致模型在訓練集上過擬合。分類問題中的擬合(a)Goodfit良擬合(c)Over-fit過擬合(b)under-fit欠擬合解決策略:
Early-stopping(早停法)Dropout(0.3)(隨機失活/拋棄30%的神經元)Dataenhancement(數據增強)Weightregularization(權重正則化,可以降低模型的復雜度)39404.2.2監(jiān)督學習的主要任務監(jiān)督學習可以完成的主要任務包括分類和回歸。1.分類:輸出離散值??煞譃椋憾诸惾蝿眨喝珉娮余]件中的垃圾郵件過濾多分類任務:手寫體數字識別則線性分類器:線性函數y(x)=w?x+b非線性分類器:非線性函數414.2.2監(jiān)督學習的主要任務2.回歸:回歸主要用于預測數值型數據,它輸出的是連續(xù)值,而非離散值。回歸被廣泛應用于各個領域的預測和預報,例如,傳染病學中的發(fā)病趨勢、在經濟領域中預測消費支出、固定資產投資支出、持有流動資產需求等?;貧w又分為:(1)線性回歸(2)邏輯回歸42(1)線性回歸線性回歸是指采用線性函數來建模,根據已知數據來估計未知的模型參數。線性回歸模型:y=wTx+e,其中wT是模型參數向量的轉置,e表示誤差。研究一個因變量與一個或多個自變量間多項式的回歸分析方法,稱為多項式回歸。如果自變量只有一個時,稱為一元多項式回歸;如果自變量有兩個或兩個以上時,稱為多元多項式回歸。若一個因變量與一個或多個自變量間是非線性關系,例如,y(x)=w2x2+w1x+e,則稱為非線性回歸。在一元多項式回歸分析中,若一個自變量和一個因變量的關系可用一條直線近似表示,這種回歸稱為一元線性回歸,即找一條直線來擬合數據。如果在多元多項式回歸分析中,一個因變量和多個自變量之間是線性關系,則稱為多元線性回歸。線性回歸線性回歸中,采用具有如下特征的函數對觀測數據進行建模:該函數是模型參數的線性組合;該函數取決于一個(一元線性回歸)或多個獨立自變量(多元線性回歸)。模型表達:y
(x,w)=w1x1+...+wnxn+b
44(2)邏輯回歸邏輯回歸又稱為邏輯回歸分析,是通過歷史數據的表現(xiàn)對未來結果發(fā)生的概率進行預測。盡管邏輯回歸輸出的是實數值,但本質上它是一種分類方法,而不是回歸方法。邏輯回歸的自變量可以有一個,也可以有多個。有一個自變量的,稱為一元回歸分析;有兩個或兩個以上自變量的,稱為多元回歸分析。邏輯回歸的因變量可以是二分類,也可以是多分類。二分類更為常用,也更容易解釋。若采用sigmoid函數計算概率,令閾值為0.5,則完成二分類任務。若采用softmax函數計算概率,則邏輯回歸可完成多分類任務。輸出的實數表示未知樣本x屬于某一類別的概率.45線性回歸與邏輯回歸的異同點線性回歸與邏輯回歸的區(qū)別在于:線性回歸用于預測連續(xù)值,其輸出的值域是實數集,其模型是線性的;邏輯回歸主要用于解決分類問題,其輸出的值域為[0,1],其模型是非線性的。線性回歸與邏輯回歸的共同點在于:
兩者的輸入數據既可以是連續(xù)的值,也可以是離散的值。464.2.3監(jiān)督學習的典型算法4.2.3.1K-近鄰算法K-近鄰算法:理論上比較成熟、設計思想直觀、最簡單的機器學習算法之一。KNN算法既可用于分類問題,也可用于回歸問題。KNN算法完成分類任務時的流程:對數據集中每個未知類別的樣本依次執(zhí)行以下操作。①準備好已知類別標簽的數據集D,對數據進行預處理,假設D中共有N個數據樣本。②計算測試樣本x(即待分類樣本)到D中每個樣本的距離,存入數組Dist[1..N]。③對Dist[1..N]中元素進行增序排序,找出其中距離最小的K個樣本。④統(tǒng)計這K個樣本所屬類別出現(xiàn)的頻率。⑤找出出現(xiàn)頻率最高的類別,記為c,作為測試樣本x的預測類別。K-NearestNeighbor(KNN)算法47問題:如何確定k
值?這是個經驗值48K-近鄰算法KNN算法完成回歸任務時的流程。對數據集中每個未知屬性值的樣本依次執(zhí)行以下操作。①準備好已知屬性值的數據集D,對數據進行預處理,假設D中共有N個數據樣本。②計算測試樣本x(即待預測樣本)到D中每個樣本的距離,存入Dist[1..N]。③對Dist[1..N]中元素進行增序排序,找出其中距離最小的K個樣本。④計算這K個樣本的屬性的平均值Y。⑤將Y賦予測試樣本x,作為其屬性值。49KNN算法的優(yōu)缺點KNN算法的優(yōu)點有:思路簡單,易于理解,易于實現(xiàn),無需訓練過程,不必估計參數,可直接用訓練數據來實現(xiàn)分類。只需人為確定兩個參數,即K的值和距離函數。KNN算法支持多分類。KNN算法有以下4點不足:①對超參數K的選擇十分敏感,針對同一個數據集和同一個待測樣本選擇不同K值,會導致得到完全不同的分類結果。②當樣本不平衡時,例如一個類中樣本數很多,而其他類中樣本數很少,有可能導致總是將新樣本歸入大容量類別中,產生錯誤分類。③當不同類別的樣本數接近時或有噪聲時,會增加決策失誤的風險。④當樣本的特征維度很高或訓練數據量很大時,計算量較大,KNN算法效率會降低,因為對每一個待分類樣本都要計算它與全體已知樣本之間的距離,才能找到它的K個最近鄰點。目前常用的解決方法是事先對已知樣本進行剪枝,去除對分類作用不大的樣本;另外,可以對訓練數據進行快速K近鄰搜索。504.2.3.2支持向量機SVM是機器學習中的一個經典算法,具有嚴格的理論基礎,尤其在樣本量小的情況下表現(xiàn)出色。SVM既可用于分類問題,也可用于回歸問題。SVM的設計思路給定訓練數據集,支持向量機將每個訓練樣本的特征向量表示為空間中的點,支持向量機想要求解一個分類超平面,使得不同類別的樣本被盡可能大間隔地分開。然后將新的樣本映射到同一空間,根據它落在分類超平面的哪一側來預測其所屬的類別。SVM是一種二分類模型,其基本模型定義為特征空間上間隔最大的線性分類器,即SVM的學習策略就是使間隔最大化,最終可轉化為一個凸二次規(guī)劃問題的求解。514.2.3.2支持向量機一般而言,一個樣本點距離超平面的遠近可以表示分類預測的置信度或準確程度。當一個樣本點距離超平面越遠時,分類的置信度越大。對于一個包含n個樣本點的數據集,自然認為:其分類間隔是n個點中離超平面最近的距離。為了提高分類的準確程度,希望所選擇的超平面能夠最大化該間隔。此為SVM算法最樸素的思路,即最大間隔(Max-Margin)準則。距離超平面最近的若干個訓練樣本被稱為“支持向量”,兩個異類支持向量到超平面的距離之和被稱為“間隔”。524.2.3.2支持向量機支持向量機的目標就是找到具有“最大間隔”的超平面。在2D空間中,分類線可用線性方程wx+b=0來描述,其中,w和b都是待優(yōu)化的參數。分類線wx+b=0應該將所有訓練樣本都正確分類,則有如下表達式:合并,寫為:兩條與分類線平行的虛線的方程分別為:wx+b=1和wx+b=-1這兩條平行虛線之間的距離稱為“間隔”,其計算公式為:M=2/‖w‖希望間隔M取最大值,即有:找“最大間隔”,轉化為求解二次優(yōu)化問題,求參數w和b,使得M最大。53SVM的優(yōu)缺點SVM的優(yōu)點如下。①解決高維特征的分類問題和回歸問題很有效,在特征維度大于樣本數時,依然有很好的效果。②僅僅利用為數不多的支持向量便可確定超平面,無需依賴全部數據,因此適用于小樣本集的應用。③有大量的核函數可以使用,從而可靈活地解決各種非線性的分類和回歸問題。④在樣本量不是海量數據時,分類準確率高,泛化能力強。SVM的缺點如下。①如果特征維度遠遠大于樣本數,則SVM表現(xiàn)一般。②在樣本量巨大、核函數映射維度非常高時,SVM的計算量過大。③針對非線性問題的“核函數選擇”問題,沒有通用標準,難以選擇一個合適的核函數。④SVM對缺失數據敏感。544.3無監(jiān)督學習無監(jiān)督學習,顧名思義,即沒有監(jiān)督的學習。與監(jiān)督學習的不同之處在于:無監(jiān)督學習方法在學習時,沒有事先指定的標簽,也不需要人類提供標注數據,更不接收監(jiān)督式信息(即告訴它何種操作是正確的)。無監(jiān)督學習是通過模型不斷地自我認知、自我鞏固、自我歸納來實現(xiàn)其學習過程。Itisawayof“teachingbyitself”,withouta“teacher”.這是一種“自學”的方式,沒有“老師”。無師自通554.3.1無監(jiān)督學習的基本原理無監(jiān)督學習算法僅接收環(huán)境提供的未標注數據,從中學習數據的統(tǒng)計規(guī)律或者內在結構,調節(jié)自身的參數或結構,以發(fā)現(xiàn)外部輸入的某種固有特性。無監(jiān)督學習沒有訓練過程,其學習的基本原理如下。已知N個數據樣本X={X1,X2,…,XN},第i個樣本Xi表示為
(xi1,xi2,…,xin)。將無標注的樣本輸入到一個指定的學習模型中,學習得到用于聚類、降維或概率估計的決策函數
fθ(x)
或條件概率分布
Pθ(y|x)
或者
Pθ(x|y)
,繼而可以使用決策函數或條件概率分布式對未知數據進行預測和概率估計。無監(jiān)督學習的主要任務包括:聚類、降維、密度估計。無監(jiān)督的學習模型則為一組描述聚類、降維或概率估計的計算方法。無監(jiān)督學習的過程就是從模型集合中選擇出最優(yōu)預測模型的過程,預測過程是獲取聚類、降維或概率估計結果的過程。564.3.2無監(jiān)督學習的主要任務無監(jiān)督學習可以完成的主要任務:聚類和降維。聚類:聚類是研究樣本分組問題的一種統(tǒng)計分析方法。聚類起源于分類學,但卻不等于分類。聚類與分類的不同在于:聚類所劃分的組是未知的,是從樣本中通過學習自動發(fā)現(xiàn)的,各個組的標簽是未知的,但組的個數需要事先人為給定。給定一個由無標注樣本組成的數據集,聚類是根據數據特征的差異將樣本劃分為若干個組(簇),使得同組內的樣本非常相似,不同組的樣本不相似。聚類的目的是將相似的對象聚在一起,卻不知道組中的對象是什么,更不知道組的名稱。因此,只需要確定樣本相似度的計算方法,便可執(zhí)行一個聚類算法了。574.3.2無監(jiān)督學習的主要任務聚類是將樣本集分為若干互不相交的子集,即樣本組。聚類算法劃分組的原則為:使劃分在同一組的樣本盡可能地彼此相似,即類內的相似度高;同時使劃分在不同組的樣本盡可能地不同,即組間的相似度低。聚類的典型應用包括:商業(yè)營銷、圖像分割、經濟區(qū)域分類。傳統(tǒng)的聚類分析計算方法主要有如下幾類:劃分方法、層次聚類方法或基于連接的聚類方法、基于密度的聚類方法、基于網格的方法、基于模型的方法。584.3.2無監(jiān)督學習的主要任務2.降維:通過數學變換,將原始高維特征空間轉變?yōu)橐粋€低維子空間的過程,稱為降維。降維也稱為維數約簡,即降低特征的維度,得到一組冗余度很低的特征。若原特征空間是D維的,現(xiàn)在希望降至D-1維甚至更低維的。特征維數由1000D降至100D用,用最具代表性的100D特征代替原來1000D特征。在從高維空間轉換到低維空間的過程中,低維空間不是事先給定的,而是從樣本數據中自動發(fā)現(xiàn)的,但低維空間的維度通常是事先給定的。降維后,新產生的特征的物理含義也需由學者自己去發(fā)現(xiàn)和總結。需要降維的原因在于:在原始高維數據空間中,樣本特征可能包含冗余信息及噪聲信息,在實際應用中會造成存儲空間的浪費、計算量過大、維度災難、無法獲取本質特征等問題。59降維主要應用于3方面(1)數據壓縮,壓縮后的圖像、視頻、音頻數據不僅減少了占用計算機內存或磁盤的空間,還加速了各種算法的運行;(2)數據可視化,通過降維可以得到更直觀的數據視圖。例如,將四維甚至更高維的數據降至二維或三維空間上,使得對數據的結構有更直觀的理解與認識;(3)特征工程,高維數據中的冗余特征和噪聲會對模式識別造成誤差,降低模型的準確率,增加模型的復雜度,導致模型出現(xiàn)過擬合現(xiàn)象。通過特征降維,可以去除部分不相關或冗余的特征,確保特征之間是相互獨立的,以達到提高模型精確度、降低算法時間復雜度、提升模型泛化能力的目的。60特征工程中的降維通常有兩種策略,分別是特征選擇和特征提取。(1)特征選擇。特征選擇也稱為特征子集選擇,或屬性選擇、變量選擇或變量子集選擇,它是指從原始特征集(n維特征)中選擇出k維(k<n)最有效的、最具代表性的特征子集,舍棄冗余或無關的n-k個特征,使得系統(tǒng)的特定指標最優(yōu)化。特征選擇的目的是去除原始特征集中與目標無關的特征,保留與目標相關的特征。特征選擇的輸出可能是原始特征集的一個子集,也可能是原始特征的加權子集,保留了原始特征的物理含義。常用的特征選擇方法:高相關性濾波、隨機森林、過濾方法等。61特征工程中的降維(2)特征提取圖像處理等領域中的特征提取與降維中的特征提取是完全不同的概念。降維中的特征提取是指通過數學變換方法,將高維特征向量空間映射到低維特征向量空間。實際上,特征提取就是一個對已有特征進行某種變換,以獲取約簡特征的過程。其思路是:將原始高維特征空間中的數據點向一個低維空間做投影(例如,從3D向2D做投影),以減少維數。在此映射過程中,特征發(fā)生了根本性變化,原始特征消失了,取而代之的是盡可能多地保留了相關特性的新特征,這些新特征不在原始特征集中。特征提取的主要經典方法:主成分分析法和線性判別分析法等。62特征選擇與特征提取的異同點特征選擇與特征提取的共同點:(1) 兩者都是在盡可能多地保留原始特征集中有用信息的情況下降低特征向量的維度。(2)兩者都能提高模型的學習性能,降低計算開銷,并提升模型的泛化能力。特征選擇與特征提取的區(qū)別:(1)特征選擇是從原始特征集中選擇出子集,兩個特征集之間是包含關系;而特征提取則是將特征向量從原始空間映射到新的低維空間,創(chuàng)建了新特征,兩個特征集之間是一種映射關系。(2)特征選擇的子集未改變原始的特征空間,且保留了原始特征的物理意義和數值;而特征提取獲得的新特征沒有了物理含義,其值也發(fā)生了改變。故特征選擇獲得的特征具有更好的可讀性和可解釋性。(3)兩種降維策略所采用的方法不同。特征選擇常用的方法包括高相關性濾波、隨機森林、過濾方法等;特征提取常用的方法包括主成分分析法和線性判別分析法等。634.3.3無監(jiān)督學習的典型算法4.3.3.1K-Means聚類K-Means(即K均值)聚類是無監(jiān)督學習中使用最廣泛的聚類算法,無論是思想還是實現(xiàn)都比較簡單。K-Means聚類算法的基本思想是:針對給定的樣本集合D,通過迭代尋找K個簇的一種劃分方案,其目標是使事先定義的損失函數最小。損失函數往往定義為各簇內各個樣本與所屬簇中心點的距離平方之和,
其公式:
64K-Means算法的實現(xiàn)過程(1)從數據集D中隨機選擇K個樣本作為初始簇的中心。(2)計算每個樣本與K個簇中心的距離,并將該樣本劃分到距離其最近的簇中。(3)重新計算K個新簇的中心(即該簇內所有數據點的平均值)。(4)重復執(zhí)行第(2)、(3)步,直到E值不再變小,即所有簇中的樣本不再發(fā)生變化。從上述過程可見,K-Means算法時間復雜度近于線性,適合于大規(guī)模數據集上的聚類。65K-Means算法的主要問題①K-Means算法對參數的選擇比較敏感,不同的初始位置或者簇個數K的選擇往往會導致完全不同的結果,當選取的K個初始簇中心點不合適時,不僅會増加聚類的迭代次數與時間復雜度,甚至有可能造成錯誤的聚類結果;②由于損失函數是非凸函數,則不能保證計算出來的E的最小值是全局最小值。在實際應用中,K-Means達到的局部最優(yōu)已經可以滿足需求。如果局部最優(yōu)無法滿足實際需要,可以重新選擇不同的初始值,再次執(zhí)行K-Means算法,直到達到滿意的效果為止。664.3.3.2主成分分析主成分分析(PCA)是一種常用于特征提取的線性降維方法。PCA的主要原理通過某種線性投影,將高維的數據映射到低維的空間中,并期望在所投影的維度上的數據方差最大,方差的計算公式D:
方差大表示樣本點在此超平面上的投影盡可能地被分開了,以此達到使用較少的數據維度來保留較多的原始樣本點的特性的效果。通過PCA還可以將一組可能存在相關性的特征分量(屬性)轉換為一組線性不相關的特征分量,轉換后的這組特征分量叫主成分。67PCA算法的優(yōu)點(1)僅用方差衡量信息量,不受數據集以外的因素影響。(2)各主成分之間正交,可消除原始特征分量之間相互影響的因素。(3)計算方法簡單,主要運算是矩陣的特征值分解,易于實現(xiàn)。4.4弱監(jiān)督學習數據集中小部分有標注,大部分沒標注,即使有標注,也可能質量不高、有噪聲。弱監(jiān)督學習是指已知數據及其弱標簽(即標簽質量不高,包含不完整、不確切、不準確的標簽),訓練一個智能算法,將輸入數據映射到一組更強的標簽的過程。標簽的強弱是指標簽蘊合的信息量的多少,例如,相對于圖像分割的標簽而言,圖像分類的標簽就是弱標簽。如果我們知道一幅圖,告訴你圖上有一只“狗”,然后需要你將“狗”在圖像中的位置標出來,并且將“狗”從背景中分離出來,那么這就是已知弱標簽(“狗”)、要去學習強標簽(狗的位置、狗的輪廓)的弱監(jiān)督學習問題(不確切監(jiān)督)。與監(jiān)督學習相比,弱監(jiān)督學習中的數據標簽是不完全的,即訓練集中只有一部分數據有標簽,其余(甚至)大部分數據沒有標簽。與無監(jiān)督學習相比,弱監(jiān)督學習還是有一定的監(jiān)督信息,學習性能更好些。例如,在醫(yī)學影像數據分析中,醫(yī)生只能手工標注少量圖像,很難獲得完整的、全部的病灶標注。弱標簽的示例對圖像分割而言,圖像分類的標簽就是弱標簽。只知道類別“貓”,然后需要將“貓”在圖像中的位置標出來,并且將“貓”從背景中分離出來,這就是已知弱標簽(“貓”)、要去學習強標簽(貓的位置、貓的輪廓)的弱監(jiān)督學習問題。704.4.1不完全監(jiān)督學習當訓練集只有一個(通常很小的)子集有標簽,而其他數據沒有標簽時,所進行的監(jiān)督學習稱為不完全監(jiān)督學習(IncompleteSupervisionLearning)。例如,在圖像分類任務中,可以很容易從互聯(lián)網上獲取大量圖像,然而真實標簽卻需要人類標注者手工標出??紤]到標注的人工成本,往往只有一小部分圖像能夠被標注,導致訓練集中大部分圖像根本沒有標簽。針對不完全監(jiān)督學習,可以考慮采用不同的技術改善和解決,如主動學習半監(jiān)督學習遷移學習強化學習714.4.1.1主動學習主動學習(ActiveLearning)是一種機器學習框架,在這種框架中,學習算法可以從尚未標記的樣本池中主動選擇下一個需要標記的可用樣本子集;然后交互式地、動態(tài)地向用戶發(fā)出查詢,請求用戶為其提供真實標簽,或從Oracle數據庫中查詢已人工標注好的標簽,或由人工標注員實時標記;再反饋給學習算法,進行監(jiān)督學習訓練,逐步提升模型效果??梢姡谥鲃訉W習的訓練過程中,需要有人類的干預。主動學習的基本思想:允許機器學習算法自主選擇它想要學習的數據,它可以在使用少量標簽的同時達到更高的精度。這種算法被稱為主動學習器(ActiveLearner)。目標:使用盡可能少的查詢來訓練出性能良好的模型。724.4.1.1主動學習在主動學習出現(xiàn)之前,系統(tǒng)會從未標注的樣本中隨機選擇待標注的樣本,進行人工標記。顯然,這樣選擇出的樣本缺乏針對性。主動學習器選擇最重要的、信息量大的樣本,例如,易被錯分的樣本,或類邊界附近的樣本,讓人進行標注。主動學習過程通常包括5個步驟:(1)系統(tǒng)主動選擇待標注樣本(2)人工標注或數據庫查詢(3)模型訓練(4)模型預測(5)模型更新。
上述步驟循環(huán)往復,直到訓練錯誤率低于某個設定的閾值。主動學習的關鍵是如何挑選出合適的未標注樣本子集用于人工標注。主動學習在訓練階段,需要對數據進行增量且動態(tài)的標注,以使算法能夠獲得最大信息量的標簽,從而迅速提升模型性能。主動學習有廣泛的應用場景,例如,①個性化的郵件、短信分類:根據個人喜好來區(qū)分正常/垃圾短信和郵件。②異常檢測:如時間序列的異常檢測(如頻繁轉賬匯款,可能是詐騙)等。③通用的圖像識別系統(tǒng),對某些極其相像的圖像,還是需要人工識別,給予標注。734.4.1.1主動學習744.4.1.2半監(jiān)督學習(Semi-SupervisedLearning)半監(jiān)督學習是監(jiān)督學習與無監(jiān)督學習相結合的一種學習方法,在其訓練的過程中無需人類干預。缺少已標注數據時,主動學習需要人類為未標注樣本提供標簽,而我們卻希望:機器能通過對有標簽數據的學習,逐漸自動地將標簽“傳播”到無標簽的數據上。半監(jiān)督學習的目的:在不求助于人類專家的情況下,同時利用有標注數據和無標注數據來訓練模型。在半監(jiān)督學習中,有標注的數據往往是少數,未標注的數據是大多數。少量的標注數據并不足以訓練出好的模型,但可以利用大量未標注數據來改善算法性能。半監(jiān)督學習方法的實現(xiàn)思路75(1)提取所有數據樣本的特征信息,計算一個未標注樣本
xu與所有標注樣本之間的相似度。(2)認為:相似度越高的樣本,它們的標簽越傾向于一致。基于這個認知,找到與xu相似度最高的已標注樣本,將其標簽賦予
xu作為標簽。(3)重復前兩步,逐步將已標注樣本的標簽“傳播”到未標注的樣本上,擴大標注數據集的規(guī)模;在標簽傳播過程中,保持已標注樣本的標簽不變,使其像一個源頭將標簽傳向未標注樣本。(4)上述迭代過程結束時,相似樣本基本上都獲得了相似的標簽,從而完成了標簽傳播過程。(5)然后,利用規(guī)模較大的標注數據集訓練學習模型,實現(xiàn)監(jiān)督學習??梢?,半監(jiān)督學習只需要低成本的人工標注,同時使用少量有標簽數據和大量無標簽數據,便能獲得堪比甚至高于監(jiān)督學習的性能。764.4.1.3遷移學習遷移學習(TransferLearning)是將在一個領域(稱為源領域)的知識遷移到另外一個領域(稱為目標領域),使得在目標領域能夠取得更好的學習效果。遷移學習是模仿人類“舉一反三”的能力,這是人類與生俱來的能力。打乒乓球———打網球,下國際象棋———下中國象棋C語言編程———Python語言,跳拉丁舞后———跳探戈對于計算機來說,進行遷移學習就是利用源領域的數據訓練好學習模型,對其稍加調整,便可用于在目標領域完成目標任務。將在ImageNet圖像集上學習到的分類模型遷移到醫(yī)療圖像的分類任務上;將中英互譯的翻譯模型遷移到日英互譯的任務上。目前,遷移學習方法在情感分類、圖像分類、命名實體識別、WiFi信號定位、機器翻譯等問題上取得了很好的應用效果。774.4.1.3遷移學習遷移學習利用不同領域中數據、任務或模型之間的相似性,將在源領域學習或訓練好的模型應用于目標領域完成目標任務。所以,遷移學習的關鍵要素在于:尋找源領域和目標領域中數據、任務和模型之間的相似性或“不變性”。例如,在不同地區(qū)(大陸vs香港)開車?,F(xiàn)階段,人們可以很容易地獲取大量不同領域的數據,互聯(lián)網也在不斷產生大量的圖像、語音、文本、視頻等數據。但這些數據往往都沒有標注,而很多機器學習方法都需要以大量的標注數據作為前提。若能夠將在標注數據上訓練得到的模型遷移到無標注的數據上,無疑具有重要的經濟價值和廣闊的應用前景。4.4.1.3遷移學習目前,實現(xiàn)遷移學習的基本方法包括樣本遷移、特征遷移和模型遷移。(1)樣本遷移。樣本遷移的基本思路是:在源領域中找與目標領域相似的數據樣本,加重該樣本的權值,重復利用源領域中的樣本標簽數據,提高模型在目標領域中完成任務的能力。源領域中有些已標注數據有助于在目標領域中訓練出更準確的模型,但有些數據則無法提升甚至會損害模型性能。樣本遷移學習的目的:找到源領域中有用的數據,用于在目標領域中訓練學習模型。樣本遷移方法的優(yōu)點:簡單、易實現(xiàn)。缺點:(1)不太適用于源領域與目標領域數據分布相差較大的情況。(2)對源領域中樣本的選擇、加重的權值、判斷樣本的相似性都依賴于人的經驗,會使得模型的穩(wěn)定性和可靠性降低。78圖像風格的樣本遷移學習79“東方明珠”梵高的《星月夜》將梵高的畫風遷移到“東方明珠”+圖像風格的樣本遷移學習80梵高作品《星月夜》目標領域的原圖遷移后的畫作使用《星月夜》作為源數據81(2)特征遷移特征遷移也稱為基于特征的遷移(Feature-BasedTransferLearning)。基本思路:當源領域和目標領域含有一些共同特征時,則可以通過特征變換將源領域和目標領域的特征映射到同一個特征空間中,使得在該空間中源領域數據與目標領域數據具有相同的數據分布,然后再利用傳統(tǒng)的機器學習方法來求解。特征遷移旨在通過引入源領域的數據特征來幫助完成目標領域的機器學習任務。當目標領域缺少足夠的標簽時,可通過挖掘源領域數據與目標領域數據的共同特征,或者借助中間數據進行“橋接”,會有助于實現(xiàn)不同特征空間之間的知識遷移。如:在識別圖像中花卉種類(目標領域)時,若缺少花卉種類的標簽,可借助wiki、百度百科等相關數據源(即源領域)獲得帶有標簽的文本和圖文并茂的中間數據。特征遷移通常假設源領域和目標領域間有一些共同特征,在共同特征空間中遷移知識。82(3)模型遷移模型遷移也稱為基于模型的遷移學習或基于參數的遷移學習(Parameter-BasedTransferLearning)?;舅悸肥牵簩⒃搭I域上訓練好的模型的一部分參數或者全部參數應用到目標領域任務的模型上。模型遷移可以利用模型之間的相似性來提高模型的能力。例如,在需要使用模型完成水果分類任務時,可以將在ImageNet上預訓練的模型用于初始化水果分類模型,再利用目標領域的幾萬個已標注樣本進行微調,即可得到精度很高的模型。834.4.1.3遷移學習與樣本遷移和特征遷移一樣,模型遷移也利用源領域的知識。然而,三者在利用知識的層面上存在顯著差別:樣本遷移利用樣本層面的知識,即樣本;特征遷移利用特征層面的知識,即特征;模型遷移利用模型層面的知識,即參數。模型遷移是目前最主流的遷移學習方法,可以很好地利用源領域中已有模型的參數,使得學習模型在面臨新的任務時,只需微調,便可完成目標領域的任務。目前,遷移學習已經在機器人控制、機器翻譯、圖像識別、人機交互等諸多領域獲得了廣泛的應用。844.4.1.4強化學習強化學習(ReinforcementLearning),又稱再勵學習、評價學習或增強學習。受到行為心理學的啟發(fā),強化學習的算法理論早在20世紀六七十年代就已形成,但直到最近才引起了學術界與工業(yè)界的廣泛關注。強化學習的思路是:通過不斷試錯,使下一次采取的動作能夠得到更多獎勵,并且將獎勵最大化。強化學習用于描述和解決智能體(Agent)在與外部環(huán)境的交互過程中采取學習策略,以獲得最大化的回報或實現(xiàn)特定目標的問題。其中,智能體就是需要訓練的學習模型,外部環(huán)境則被表示為一個可以給出反饋信息的模擬器(Emulator),回報(Reward)是通過人為設置的獎勵函數計算得到的。854.4.1.4強化學習智能體與環(huán)境通過在一系列“觀察(Observation)—動作(Action)—回報(Reward)”的交互中獲得知識,改進行動方案,以適應環(huán)境。標準的強化學習過程如下:(1)初始化,令當前時刻t=1。(2)智能體獲取當前時刻環(huán)境的狀態(tài)信息,記為st。(3)智能體對環(huán)境采取試探性動作at。(4)根據st和at,環(huán)境采用獎勵函數計算出一個評價值rt,反饋給智能體。①若at正確,則智能體獲得獎勵,以后采取動作at的趨勢將加強。②若at錯誤,則智能體獲得懲罰,以后采取動作at的趨勢將減弱。(5)環(huán)境更新狀態(tài)為st+1。(6)令t=t+1,若t<T(事先規(guī)定的時刻),返回第(2)步,否則算法結束。864.4.1.4強化學習強化學習就是在上述反復交互的過程中不斷修改從狀態(tài)到動作的映射策略,以期獲得最大化的累積回報,達到優(yōu)化模型的目的。強化學習不要求預先給定任何數據,而是通過接收環(huán)境對動作的反饋信息(獎勵或懲罰)來獲得學習數據,并用于更新模型參數,并非直接告訴智能體如何采取正確的動作。強化學習的關注點在于對未知領域的探索和對已有知識的利用之間的平衡。874.4.1.4強化學習強化學習與監(jiān)督學習的不同之處在于:①監(jiān)督學習輸入的訓練數據是包含樣本及其標簽的強監(jiān)督信息,而強化學習從外部環(huán)境接收的反饋信息是一種弱監(jiān)督信息;②監(jiān)督學習是采用正確答案來訓練模型,給予的指導是即時的;而強化學習是采用“試錯”的方式來訓練模型,外部環(huán)境給予它的指導有時是延遲的。強化學習與無監(jiān)督學習的不同之處在于:無監(jiān)督學習輸入的是沒有任何監(jiān)督信息的無標注數據,強化學習從環(huán)境獲得的評價信息(不是正確答案)是一種弱監(jiān)督信息,盡管監(jiān)督信息很弱
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 消防安全主管職責清單
- 基因工程相關技術
- 2025至2030中國新型顯示技術產業(yè)發(fā)展趨勢及投資風險評估報告
- 2025-2030中國中藥材產品行業(yè)市場深度調研及發(fā)展趨勢和前景預測研究報告
- 2025至2030中國生物醫(yī)藥創(chuàng)新藥研發(fā)市場現(xiàn)狀及投資戰(zhàn)略規(guī)劃分析報告
- 2025-2030中國虛擬偶像市場應用發(fā)展分析與投資趨勢預判研究報告
- 2026民生銀行秋招筆試題及答案
- 心悸的醫(yī)學解釋
- 評選方案策劃活動內容(3篇)
- 2026年綠色氫氨醇項目可行性研究報告
- 重力式擋土墻施工安全措施
- 2025年武漢大學專職管理人員和學生輔導員招聘真題
- 葫蘆島事業(yè)單位筆試真題2025年附答案
- 2026年公平競爭審查知識競賽考試題庫及答案(一)
- 置業(yè)顧問2025年度工作總結及2026年工作計劃
- 2025新疆智慧口岸建設白皮書
- 2025嵐圖汽車社會招聘(公共基礎知識)測試題附答案
- 2025-2026小學嶺南版(2024)美術二年級上冊教學設計(附目錄)
- 2025福建德化閩投抽水蓄能有限公司招聘15人模擬試卷附答案
- 微生物檢驗標準操作規(guī)范
- 藝術學概論共12章
評論
0/150
提交評論