版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
《機(jī)器學(xué)習(xí)》期末考試復(fù)習(xí)題庫(kù)(含答案)1.混淆矩陣的真負(fù)率公式是為2.一個(gè)包含n類(lèi)的多分類(lèi)問(wèn)題,若采用一對(duì)剩余的方法,需要拆分成多少次?B、1一個(gè)包含n類(lèi)的多分類(lèi)問(wèn)題,會(huì)將其中一類(lèi)作為正例,其余n-1類(lèi)作為反例,依次構(gòu)建n個(gè)二分類(lèi)模型。所以需要拆分成n-1次。因此,選項(xiàng)C是正確的答案。3.哪一個(gè)是機(jī)器學(xué)習(xí)的合理定義?A、機(jī)器學(xué)習(xí)是計(jì)算機(jī)編程的科學(xué)B、機(jī)器學(xué)習(xí)從標(biāo)記的數(shù)據(jù)中學(xué)習(xí)C、機(jī)器學(xué)習(xí)是允許機(jī)器人智能行動(dòng)的領(lǐng)域D、機(jī)器學(xué)習(xí)能使計(jì)算機(jī)能夠在沒(méi)有明確編程的情況下學(xué)習(xí)A、采用串行訓(xùn)練模式B、增加被錯(cuò)誤分類(lèi)樣本的權(quán)值C、通過(guò)改變訓(xùn)練集進(jìn)行有針對(duì)性的學(xué)習(xí)解析:Boosting是一種集成學(xué)習(xí)方法,它通過(guò)模型的性能。在每次迭代中,Boosting算法會(huì)根據(jù)上一次迭代的結(jié)果調(diào)整訓(xùn)練少數(shù)服從多數(shù)原則。因此,選項(xiàng)D是錯(cuò)誤的。5.如果我們說(shuō)“線(xiàn)性回歸”模型完美地?cái)M合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下面哪個(gè)說(shuō)法是正確的?C、以上答案都不對(duì)7.7.以下哪個(gè)不是原型聚類(lèi)算法()解析:一對(duì)一法是一種解決多類(lèi)別分類(lèi)問(wèn)題的方法。在一對(duì)一法中,對(duì)于$k$個(gè)來(lái)說(shuō),對(duì)于每個(gè)類(lèi)別$i$,需要構(gòu)建$k-1$個(gè)二分類(lèi)器,其中第$j$個(gè)二分類(lèi)器用lign*}&\frac{k(k-1)}{2}\\=&\frac{k\times(k-1)\=&\frac{k(k-1)}{2}\end{align*}$$因此,選項(xiàng)A是正確答案。10.下列貝葉斯網(wǎng)結(jié)構(gòu)中不屬于三種典型的依賴(lài)關(guān)系C、順序結(jié)構(gòu)解析:答案解析:在貝葉斯網(wǎng)中,存在三種典型的依賴(lài)關(guān)系,分別是同父結(jié)依賴(lài)。而選擇結(jié)構(gòu)并非貝葉斯網(wǎng)中的典型依賴(lài)關(guān)系。所以,正確答案是選項(xiàng)B。11.下列兩個(gè)變量之間的關(guān)系中,那一個(gè)是線(xiàn)性關(guān)系A(chǔ)、學(xué)生的性別與他(她)的數(shù)學(xué)成績(jī)B、人的工作環(huán)境與他的身體健康狀況C、兒子的身高與父親的身高D、正方形的邊長(zhǎng)與周長(zhǎng)12.下面符合特征選擇標(biāo)準(zhǔn)的是()A、越少越好C、選擇能夠反映不同事物差異的特征B過(guò)于絕對(duì)和片面,選項(xiàng)D錯(cuò)誤。因此答案是C。13.下列哪一種偏移,是我們?cè)谧钚《酥本€(xiàn)擬合的情況下使用的?圖中橫坐標(biāo)是輸入X,縱坐標(biāo)是輸出Y。B、垂向偏移D、以上說(shuō)法都不對(duì)14.以下哪個(gè)是PCA算法的主要應(yīng)用?C、距離度量解析:PCA(PrincipalComponentAnalysis)算法即主成分法。在距離度量中,通常需要使用其他算法,如歐幾里因此,選項(xiàng)D是正確的答案。15.1.將數(shù)據(jù)集D進(jìn)行適當(dāng)處理,產(chǎn)生出訓(xùn)練集S和測(cè)試集T,有哪些常見(jiàn)的做C、自助法D、以上都是16.在機(jī)器學(xué)習(xí)中,學(xué)得的模型適用于新樣本的能力稱(chēng)為()B、泛化能力確描述學(xué)得的模型適用于新樣本的能力。所以,答案是B選項(xiàng)。20.若某學(xué)習(xí)器預(yù)測(cè)的是離散值,則此類(lèi)學(xué)習(xí)任務(wù)稱(chēng)為()D、強(qiáng)化學(xué)習(xí)器預(yù)測(cè)的是離散值,則此類(lèi)學(xué)習(xí)任務(wù)稱(chēng)為分類(lèi),選項(xiàng)A正確。22.KNN算法屬于一種典型的()算法C、半監(jiān)督學(xué)習(xí)正確答案是選項(xiàng)A。23.在構(gòu)造決策樹(shù)時(shí),以下哪種不是選擇屬性的度量的方法A、信息值B、信息增益C、信息增益率D、基尼指數(shù)正確答案是A。24.以下關(guān)于Sigmoid的特點(diǎn)說(shuō)法錯(cuò)誤的是()。A、Sigmoid函數(shù)計(jì)算量小B、趨向無(wú)窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的C、可以將函數(shù)值的范圍壓縮到[0,1]D、函數(shù)處處連續(xù)25.BP算法總結(jié)錯(cuò)誤的是()。接權(quán)值26.以下哪個(gè)不是常見(jiàn)的決策樹(shù)算法27.假設(shè)我們使用原始的非線(xiàn)性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來(lái)保證得到的模型是線(xiàn)性可分離的?C、正無(wú)窮大28.不屬于KNN算法要素的是:B、距離度量C、分類(lèi)決策的規(guī)則D、訓(xùn)練樣本的個(gè)數(shù)答案:D解析:KNN算法是一種基本的分類(lèi)與回歸方法,其主要要素包括k值的選擇、距離度量和分類(lèi)決策的規(guī)則。k值的選擇會(huì)影響算法的性能和結(jié)果,不同的距離度量方式會(huì)影響樣本之間的相似度計(jì)算,而分類(lèi)決策的規(guī)則則決定了如何根據(jù)鄰居的類(lèi)別來(lái)確定待分類(lèi)樣本的類(lèi)別。訓(xùn)練樣本的個(gè)數(shù)并不是KNN算法的要素之一,而是影響算法性能的一個(gè)因素。因此,正確答案是D。29.下列中為判別模型的是()解析:答案解析:判別模型是直接對(duì)條件概率P(y|x)進(jìn)行建模,旨在尋找不同30.關(guān)于logistic回歸和SVM不正確的是()A、Logistic回歸目標(biāo)函數(shù)是最小化后驗(yàn)概率B、Logistic回歸可以用于預(yù)測(cè)事件發(fā)生概率的大小31.機(jī)器學(xué)習(xí)這個(gè)術(shù)語(yǔ)是由()定義的?D、以上都不是32.下列方法中,屬于無(wú)監(jiān)督學(xué)習(xí)的為()B、K均值的輸出標(biāo)簽來(lái)進(jìn)行模型的訓(xùn)練和預(yù)測(cè)。所以,答案選B。33.以下關(guān)于機(jī)器學(xué)習(xí)描述錯(cuò)誤的是?B、研究計(jì)算機(jī)怎樣模擬或?qū)崿F(xiàn)人類(lèi)的學(xué)習(xí)行為,以獲取新的知識(shí)或技能習(xí)行為以獲取新知識(shí)或技能,A、B選項(xiàng)正確?;跀?shù)據(jù)的機(jī)器學(xué)習(xí)也是現(xiàn)代智能技術(shù)中的重要方法之一,D選項(xiàng)正確。而C選項(xiàng)中“器學(xué)習(xí)”表述錯(cuò)誤“機(jī)器學(xué)習(xí)”。因此,正確答案是C。34.下面關(guān)于SVM算法敘述不正確的是()C、SVM求得的解為全局唯一最優(yōu)解D、SVM最終分類(lèi)結(jié)果只與少數(shù)支持向量有關(guān)解析:SVM是一種有監(jiān)督的學(xué)習(xí)模型,它的基本思想是找到一個(gè)最優(yōu)的超平面,果的影響最大。因此,選項(xiàng)B是不正確的。35.假如我們使用Lasso回歸來(lái)擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(gè)(X1,X2,…,X100)?,F(xiàn)在,我們把其中一個(gè)特征值擴(kuò)大10倍(例如是特征X1),然后用相同的正則化參數(shù)對(duì)Lasso回歸進(jìn)行修正。那么,下列說(shuō)法正確的是?A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無(wú)法確定特征X1是否被舍棄D、以上說(shuō)法都不對(duì)36.混淆矩陣中的TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是B、二分之一D、三分之二解析:準(zhǔn)確率的計(jì)算公式為:準(zhǔn)確率=(TP+TN)/(TP+TN+FP+FN),其中TP表代入公式,得到準(zhǔn)確率=(16+4)/(16+4+12+8)=20/40=1/2。因此,選項(xiàng)B是37.神經(jīng)網(wǎng)絡(luò)算法有時(shí)會(huì)出現(xiàn)過(guò)擬合的情況,那么采取以下哪些方法解決過(guò)擬合更為可行()。C、減少訓(xùn)練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量38.1.下面不屬于過(guò)擬合原因的是A、特征維度過(guò)多C、訓(xùn)練數(shù)據(jù)過(guò)多解析:過(guò)擬合是指模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在新數(shù)據(jù)上表現(xiàn)不佳的現(xiàn)象。訓(xùn)練數(shù)據(jù)中的噪聲,而不是真正的模式。-噪聲過(guò)多:訓(xùn)練數(shù)據(jù)中存在過(guò)多的噪從而提高模型的泛化能力。因此,選項(xiàng)C不屬于過(guò)擬合的原因。A、以上所有解析:答案解析:SVM(支持向量機(jī))算法的性能受到多個(gè)因素的綜合影響。軟有選項(xiàng),即選項(xiàng)A是正確的。40.假設(shè)你有以下數(shù)據(jù):(0,2)(2,2)(3,1)輸入和輸出都只有一個(gè)變量。使驗(yàn)證得到的均方誤差是多少?A、10/32集的均方誤差。經(jīng)過(guò)詳細(xì)的計(jì)算和分析,最終得出的結(jié)果是49/27。因此,選項(xiàng)41.對(duì)于在原空間中線(xiàn)性不可分問(wèn)題,支持向量機(jī)()。A、無(wú)法處理C、在原空間中尋找非線(xiàn)性函數(shù)的劃分?jǐn)?shù)據(jù)D、在原空間中尋找線(xiàn)性函數(shù)劃分?jǐn)?shù)據(jù)42.下列關(guān)于過(guò)擬合的說(shuō)法錯(cuò)誤的是A、過(guò)擬合是指模型在訓(xùn)練集上表現(xiàn)很好,但是在交叉般B、解決過(guò)擬合可以采用Dropout方法C、解決過(guò)擬合可以采用參數(shù)正則化方法般或較差的現(xiàn)象,A選項(xiàng)正確。Dropout方法通過(guò)在訓(xùn)練過(guò)程中隨機(jī)忽略一些神C選項(xiàng)正確。數(shù)據(jù)集擴(kuò)增可以通過(guò)增加訓(xùn)練數(shù)訓(xùn)練數(shù)據(jù)的過(guò)度擬合,D選項(xiàng)錯(cuò)誤。因此,答案選D。43.關(guān)于維數(shù)災(zāi)難說(shuō)法錯(cuò)誤的是?B、降低高維度數(shù)據(jù)會(huì)對(duì)數(shù)據(jù)有所損傷D、高維度數(shù)據(jù)難以可視化失一些信息。C選項(xiàng)正確,高維數(shù)據(jù)運(yùn)算量會(huì)大幅增加,帶來(lái)運(yùn)算難度。D選項(xiàng)正確,高維度數(shù)據(jù)很難直觀地進(jìn)行可視化展示。所以說(shuō)法錯(cuò)誤的是A。分類(lèi)問(wèn)題,因此選項(xiàng)A不正確,選項(xiàng)B正確。SVM是判別式模型,它直接學(xué)習(xí)決策邊界,而不考慮數(shù)據(jù)的生成過(guò)程,因此選項(xiàng)C正確。LR也是判別式模型,它通過(guò)學(xué)習(xí)特征與類(lèi)別之間的線(xiàn)性關(guān)系來(lái)進(jìn)行分類(lèi)不正確的說(shuō)法是選項(xiàng)A。C、使用L2正規(guī)化D、做數(shù)據(jù)增強(qiáng)合的手段。數(shù)據(jù)增強(qiáng)主要用于增加數(shù)據(jù)的多樣性,對(duì)欠所以A選項(xiàng)正確。46.谷歌新聞每天收集非常多的新聞,并運(yùn)用()方法再將這些新聞分組,組成若B、聚類(lèi)47.關(guān)于BP算法信號(hào)前向傳播的說(shuō)法正確的是()。A、BP算法在計(jì)算正向傳播輸出值時(shí)需要考慮激活函數(shù)B、P算法信號(hào)前向傳播的計(jì)算量跟輸入層神經(jīng)元數(shù)目無(wú)關(guān)C、BP算法只有在隱層才有激活函數(shù)A、隨機(jī)森林算法的分類(lèi)精度不會(huì)隨著決策樹(shù)數(shù)量的增加而提高C、隨機(jī)森林算法不需要考慮過(guò)擬合問(wèn)題D、決策樹(shù)之間相關(guān)系數(shù)越低、每棵決策樹(shù)分類(lèi)精度越高的隨機(jī)森林模型分類(lèi)效果越好解析:隨機(jī)森林是一種常用的機(jī)器學(xué)習(xí)算法,它由多個(gè)決策樹(shù)組成。以下是對(duì)每個(gè)選項(xiàng)的分析:A.通常情況下,隨著決策樹(shù)數(shù)量的增加,隨機(jī)森林的分類(lèi)精度會(huì)逐漸提高,但在一定程度后可能會(huì)趨于穩(wěn)定。因此,選項(xiàng)A是正確的。B.隨機(jī)森林對(duì)異常值和缺失值具有一定的容忍度,因?yàn)樗腔诙鄠€(gè)決策樹(shù)的集成學(xué)習(xí)算法。每個(gè)決策樹(shù)在訓(xùn)練時(shí)會(huì)自動(dòng)處理缺失值,并且對(duì)于異常值的影響相對(duì)較小。因此,選項(xiàng)B是正確的。C.雖然隨機(jī)森林在一定程度上可以減少過(guò)擬合的風(fēng)險(xiǎn),但仍然需要考慮過(guò)擬合問(wèn)題。特別是在數(shù)據(jù)量較小或特征數(shù)量較多的情況下,過(guò)擬合可能仍然會(huì)發(fā)生。因此,選項(xiàng)C是錯(cuò)誤的。D.決策樹(shù)之間的相關(guān)系數(shù)越低,說(shuō)明它們之間的差異越大,能夠提供更多的信息。同時(shí),每棵決策樹(shù)的分類(lèi)精度越高,整個(gè)隨機(jī)森林的分類(lèi)效果也會(huì)越好。因此,選項(xiàng)D是正確的。綜上所述,說(shuō)法錯(cuò)誤的是選項(xiàng)C。49.下列激活函數(shù)中,能夠?qū)崿F(xiàn)將特征限制到區(qū)間[-1,1]的是哪一個(gè)50.5.EM算法的停止條件()A、已達(dá)到最大迭代輪數(shù)B、數(shù)據(jù)樣本異常C、訓(xùn)練器異常D、似然函數(shù)減小解析:答案解析:EM算法是一種迭代算法,用于求解包含A、我們不能對(duì)問(wèn)題有先驗(yàn)假設(shè)C、設(shè)計(jì)好的算法是徒勞的D、對(duì)于一個(gè)特定的問(wèn)題,任何算法都是一樣好的解析:“沒(méi)有免費(fèi)的午餐定理”(NoFreeLunchTheorem)是機(jī)器學(xué)習(xí)和優(yōu)化理論效率和質(zhì)量。因此,選項(xiàng)B是正確的答案。52.4.“學(xué)習(xí)向量量化”與一般聚類(lèi)算法不同的是()B、結(jié)構(gòu)不同C、向量程度不同D、簇的種類(lèi)不同區(qū)別。選項(xiàng)B中結(jié)構(gòu)不同不是本質(zhì)區(qū)別;選項(xiàng)C向量程度不同表述不準(zhǔn)確;選項(xiàng)D簇的種類(lèi)不同也不是關(guān)鍵不同點(diǎn)。所以答案選A。53.在大數(shù)據(jù)集上訓(xùn)練決策樹(shù),為了使用較少時(shí)間,我們可以()C、減少樹(shù)的深度D、減少樹(shù)的數(shù)量54.關(guān)于決策樹(shù)結(jié)點(diǎn)劃分指標(biāo)描述正確的是B、信息增益越大越好D、基尼指數(shù)越大越好55.做一個(gè)二分類(lèi)預(yù)測(cè)問(wèn)題,先設(shè)定閾值為0.5,概率大于等于0.5的樣本歸入正例類(lèi)(即1),小于0.5的樣本歸入反例類(lèi)(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類(lèi)和反例類(lèi),下面哪一種說(shuō)法正確是()1.增加閾值不會(huì)提高召回率2.增加閾值會(huì)提高召回率3.增加閾值不會(huì)降低查準(zhǔn)率4.增加閾值會(huì)降樣就可能導(dǎo)致召回率降低或不變,不會(huì)提高,所以1正確,2錯(cuò)誤。查準(zhǔn)率是預(yù)真正的正例,查準(zhǔn)率可能提高或不變,不會(huì)降低,所以3正確,4錯(cuò)誤。綜上,正確答案是C。57.點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問(wèn)題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽(yáng)性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99%。我們可以得出結(jié)論是:A、模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索C、無(wú)法評(píng)價(jià)模型D、以上都不正確58.下列哪種歸納學(xué)習(xí)采用符號(hào)表示方式?D、強(qiáng)化學(xué)習(xí)59.StandardScaler預(yù)處理方法可以表示為?=(?-?)/,其中?表示特征所在列的A、最大值解析:在StandardScaler預(yù)處理方法中,公式為$x'=(xA、主成分分析方法一種數(shù)據(jù)降維的方法D、主成分分析是數(shù)據(jù)增維的方法于簡(jiǎn)化數(shù)據(jù)分析和解釋。而選項(xiàng)D錯(cuò)誤,主成分分析是減維而不是增維的方法。綜上所述,正確答案是D。61.樸素貝葉斯分類(lèi)器的三種實(shí)現(xiàn)不包括A、基于伯努利模型實(shí)現(xiàn)一種具體的實(shí)現(xiàn)方式。所以,答案選C。C、可以解決有監(jiān)督學(xué)習(xí)的問(wèn)題D、可以用極大似然估計(jì)法解貝葉斯分類(lèi)器概率,而不是基于后驗(yàn)概率。所以,選項(xiàng)B描述錯(cuò)誤,選項(xiàng)A、C、D均符合貝葉63.1下列關(guān)于線(xiàn)性回歸說(shuō)法錯(cuò)誤的是()A、在現(xiàn)有模型上,加入新的變量,所得到的R^2的值總會(huì)增加C、殘差的方差無(wú)偏估計(jì)是SSE/(n-p)D、自變量和殘差不一定保持相互獨(dú)立綜上所述,正確答案是D。64.以下哪項(xiàng)是非線(xiàn)性降維方法A、PCA(主成分分析)B、LDA(線(xiàn)性判別)C、ICA(獨(dú)立成分分析)D、KPCA(核化線(xiàn)性降維)解析:線(xiàn)性降維方法是指在降維過(guò)程中保持?jǐn)?shù)據(jù)的線(xiàn)性結(jié)構(gòu)不變,如PCA、LDA中進(jìn)行線(xiàn)性降維,從而能夠處理非線(xiàn)性數(shù)據(jù)。因此,選項(xiàng)D是正確的答案。65.在變量選擇過(guò)程中,下列哪些方法可用于檢查模型的性能?a.多重變量用于同一個(gè)模型b.模型的可解釋性c.特征的信息d.交叉驗(yàn)證A、對(duì)數(shù)據(jù)分布較多的類(lèi)別賦予更大的權(quán)重C、對(duì)數(shù)據(jù)分布較少的類(lèi)別過(guò)采樣67.極大似然估計(jì)是()A、與總體分布無(wú)關(guān)的統(tǒng)計(jì)量C、似然方程的解D、對(duì)數(shù)似然方程的解體分布才能求出來(lái)的統(tǒng)計(jì)量,答案為B。68.關(guān)于決策樹(shù),以下哪種說(shuō)法是正確的A、可讀性強(qiáng)B、只用于分類(lèi)問(wèn)題D、是無(wú)監(jiān)督學(xué)習(xí)69.按照求解方法進(jìn)行分類(lèi)算法的劃分,下列中為生成模型的是()C、貝葉斯分類(lèi)器D、支持向量機(jī)SVM型。決策樹(shù)、K近鄰和支持向量機(jī)SVM主要是通過(guò)對(duì)數(shù)據(jù)的劃分、距離計(jì)算或構(gòu)建超平面等來(lái)進(jìn)行分類(lèi),它們更多是直接對(duì)決策邊界進(jìn)行構(gòu)建,屬于判別模型。70.決策樹(shù)模型中應(yīng)如何妥善處理連續(xù)型屬性確性和純度。所以,選項(xiàng)C是正確的答案。71.哪些機(jī)器學(xué)習(xí)模型經(jīng)過(guò)訓(xùn)練,能夠根據(jù)其行為獲得的獎(jiǎng)勵(lì)和反饋?zhàn)龀鲆幌盗袥Q策?B、監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、以上全部72.1.()是并行式集成學(xué)習(xí)方法最著名的代表A、隨機(jī)森林解析:Bagging是通過(guò)自助抽樣(bootstrapsling)對(duì)樣本進(jìn)行有放回抽樣來(lái)產(chǎn)aBoost是順序式集成學(xué)習(xí)方法。所以選項(xiàng)C正確。73.模型評(píng)估的常用方法有哪些C、自助法D、以上都是來(lái)對(duì)模型進(jìn)行評(píng)估和驗(yàn)證,各有特點(diǎn)和適用場(chǎng)景,所以答案選D,即以上都是。74.極大似然估計(jì)中參數(shù)是()A、確定且已知的量C、已知的隨機(jī)變量視為固定的值,并通過(guò)最大化似然函數(shù)來(lái)找到最有可能的參數(shù)值。因此,選項(xiàng)B75.以下關(guān)于降維說(shuō)法不正確的是?A、降維是將訓(xùn)練樣本從高維空間轉(zhuǎn)換到低維空間B、降維有助于數(shù)據(jù)可視化76.關(guān)于EM算法正確的是A、EM算法包括兩步:E算法和M算法C、英文全稱(chēng)是Expectation-Minimization解析:答案A正確。EM算法(Expectation-MaximizationAlgorithm)的確包括期望步驟(E步驟)和最大化步驟(M步驟)這兩個(gè)主要部分。B選項(xiàng)錯(cuò)誤,EM英文全稱(chēng)是Expectation-Maximization,表述正確,但不全面。綜合來(lái)看,AA、標(biāo)準(zhǔn)化實(shí)際上是將數(shù)據(jù)在樣本的標(biāo)準(zhǔn)差上做了等比例的縮放操作B、歸一化利用了樣本中的最大值和最小值78.2.當(dāng)訓(xùn)練集很多時(shí),一種更為強(qiáng)大的結(jié)合策略是使用(),即通過(guò)另一個(gè)學(xué)更為強(qiáng)大,故答案選A。79.同質(zhì)集成中的個(gè)體學(xué)習(xí)器亦稱(chēng)()B、同質(zhì)學(xué)習(xí)器C、組件學(xué)習(xí)器80.下列誤差和錯(cuò)誤中,哪一項(xiàng)是由于訓(xùn)練樣本的錯(cuò)誤而導(dǎo)致?A、泛化誤差D、噪聲B、P算法容易陷入局部最小值C、BP算法訓(xùn)練時(shí)間較長(zhǎng)B、邏輯回顧C(jī)、線(xiàn)性回歸和邏輯回歸都行D、以上說(shuō)法都不對(duì)83.EM算法是()學(xué)習(xí)算法B、無(wú)監(jiān)督C、半監(jiān)督用中,EM算法通過(guò)迭代估計(jì)隱變量的分布和?;蚝篁?yàn)概率。因此,EM算法是一種無(wú)監(jiān)督84.3.以下哪些是無(wú)序?qū)傩?)B、{飛機(jī),火車(chē)、輪船}C、閔可夫斯基距離D、{小,中,大}項(xiàng)C閔可夫斯基距離是一個(gè)數(shù)值概念,不是屬性;選項(xiàng)D中的“小、常也隱含著一定的順序。而選項(xiàng)B中“飛機(jī)、火車(chē)、輪列舉,它們之間不存在固有的順序關(guān)系,屬于無(wú)序?qū)傩?。所以答案選B。85.關(guān)于BP算法特點(diǎn)描述錯(cuò)誤的是()A、輸入信號(hào)順著輸入層、隱層、輸出層依次傳播B、計(jì)算之前不需要對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行歸一化D、各個(gè)神經(jīng)元根據(jù)預(yù)測(cè)誤差對(duì)權(quán)值進(jìn)行調(diào)整86.下列不屬于集成學(xué)習(xí)方法是A、bagging有bagging、boosting和stacking。A選項(xiàng)bagging是通過(guò)自助采樣法生成多個(gè)地訓(xùn)練弱學(xué)習(xí)器,根據(jù)上一輪學(xué)習(xí)結(jié)果調(diào)整樣本權(quán)重。D選項(xiàng)stacking是將多個(gè)基學(xué)習(xí)器的預(yù)測(cè)結(jié)果作為輸入,訓(xùn)練一個(gè)元學(xué)習(xí)器來(lái)進(jìn)行最終connecting并非常見(jiàn)的集成學(xué)習(xí)方法。綜上,答案選B。87.8.K均值算法的K指的是什么?B、K是均值的最大限值C、K是分類(lèi)的數(shù)量D、K是分類(lèi)的迭代次數(shù)解析:K均值算法是一種常用的無(wú)監(jiān)督學(xué)習(xí)算法,用于將數(shù)據(jù)集劃分為K個(gè)不同的簇。在K均值算法中,K表示要?jiǎng)澐值拇氐臄?shù)量。K均值算法的基本思想是通計(jì)算每個(gè)簇中所有數(shù)據(jù)點(diǎn)的平均值,作為新的聚類(lèi)中心。4.重復(fù)步驟2和3,直不同簇之間的數(shù)據(jù)點(diǎn)具有較低的相似度。因此,選項(xiàng)C是正確的答案。優(yōu)勢(shì),不能簡(jiǎn)單說(shuō)K-均值算法比DBSCAN算法更好,D選項(xiàng)表述不準(zhǔn)確。所以答案選B。90.構(gòu)建一個(gè)最簡(jiǎn)單的線(xiàn)性回歸模型需要幾個(gè)系數(shù)(只有一個(gè)特征)?91.以下關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中,正確的是()?A、增加網(wǎng)絡(luò)層數(shù),一定能減小訓(xùn)練集錯(cuò)誤率B、減小網(wǎng)絡(luò)層數(shù),一定能減小測(cè)試集錯(cuò)誤率C、增加網(wǎng)絡(luò)層數(shù),可能增加測(cè)試集錯(cuò)誤率模型過(guò)擬合了訓(xùn)練集,那么增加網(wǎng)絡(luò)層數(shù)可能會(huì)使錯(cuò)誤率增加。B導(dǎo)致模型在測(cè)試集上的性能不佳。C選項(xiàng)中,增加網(wǎng)絡(luò)集錯(cuò)誤率,具體情況取決于模型的復(fù)雜度和數(shù)據(jù)的特點(diǎn)。因此,正確答案是C。92.決策樹(shù)中不包含以下哪種結(jié)點(diǎn)A、根節(jié)點(diǎn)C、葉節(jié)點(diǎn)D、外部結(jié)點(diǎn)C、SVM的誤差閾值型的性能和穩(wěn)定性越好。因此,選項(xiàng)B是正確的答案。94.以下關(guān)于學(xué)習(xí)率說(shuō)法錯(cuò)誤的是()。A、得到的是局部最優(yōu)解B、具有很好的推廣能力96.如果一個(gè)SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問(wèn)題?A、增大懲罰參數(shù)C的值B、減小懲罰參數(shù)C的值C、減小核系數(shù)(gamma參數(shù))解析:支持向量機(jī)(SVM)中,增大懲罰參數(shù)C的值,可以使模型對(duì)訓(xùn)練數(shù)據(jù)的擬合更加緊密,從而緩解欠擬合問(wèn)題。C值較小會(huì)導(dǎo)致對(duì)誤分類(lèi)的容忍度較高,97.KNN算法是基于()A、概率空間B、顏色空間C、距離空間D、線(xiàn)性空間98.決策樹(shù)學(xué)習(xí)的關(guān)鍵是C、選擇最優(yōu)劃分屬性是選擇最優(yōu)劃分屬性,答案選C。B、在訓(xùn)練后,可以給出各個(gè)特征對(duì)于輸出的重要性C、訓(xùn)練高度串行化解析:隨機(jī)森林是一種常用的機(jī)器學(xué)習(xí)算法,具有以下特點(diǎn):-選項(xiàng)A:RF實(shí)現(xiàn)-選項(xiàng)B:隨機(jī)森林可以通過(guò)計(jì)算每個(gè)特征在決策樹(shù)中的重要性來(lái)評(píng)估特征的重要性。-選項(xiàng)C:訓(xùn)練過(guò)程是高度并行化的,可以在多個(gè)決策樹(shù)之間并行計(jì)算。-選項(xiàng)D:通過(guò)隨機(jī)采樣和特征選擇,隨機(jī)森林可以減少模型的方差,提高泛化能力。因此,說(shuō)法錯(cuò)誤的是選項(xiàng)C。100.1.對(duì)函數(shù)dist(.,.)若它是一個(gè)距離度量則需要滿(mǎn)足的基本特性中以下基本要求;同一性表示兩點(diǎn)重合時(shí)距離為0;對(duì)稱(chēng)性表明兩點(diǎn)之間的距離與順序A、投影矩陣是正交矩陣據(jù)的方差信息。綜上所述,選項(xiàng)A是正確的。103.下列表述中,在k-fold交叉驗(yàn)證中關(guān)于選擇K說(shuō)法正確的是A、較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來(lái)評(píng)估你的結(jié)果B、相對(duì)于期望誤差來(lái)說(shuō),選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)D、以上都正確較大的K值可以減少偏差,但會(huì)增加計(jì)算時(shí)間;較小的K值則可能導(dǎo)致高方差。值的選擇。因此,選項(xiàng)D是正確的。104.下列關(guān)于線(xiàn)性回歸分析中的殘差(Residuals)說(shuō)法正確的是?105.四個(gè)點(diǎn)坐標(biāo)為(1,1),(1,0),(-1,-1),(-1,0),用SVM分類(lèi)的決策邊界是x=0左側(cè)是(-1,-1)和(-1,0),右側(cè)是(1,1)和(1,0)解析:A選項(xiàng)錯(cuò)誤,Boosting主要是降低偏差;B選項(xiàng)錯(cuò)誤,隨機(jī)森林是Baggigging主要是降低方差。所以正確答案是C。107.關(guān)于BP算法反向傳播的說(shuō)法正確的是()。A、BP算法反向傳播進(jìn)行更新時(shí)一般用到微積分的鏈?zhǔn)絺鞑シ▌tB、P算法更新量與步長(zhǎng)關(guān)系不大C、BP算法反向傳播的預(yù)測(cè)誤差值一般由真實(shí)標(biāo)簽值和預(yù)測(cè)標(biāo)簽值的差計(jì)算得來(lái)D、BP算法反向傳播的目的是只對(duì)權(quán)值進(jìn)行更新108.ID3決策樹(shù)算法以()為準(zhǔn)則來(lái)選擇A、信息增益D、信息增益率解析:ID3決策樹(shù)算法是一種基于信息論的決策樹(shù)學(xué)習(xí)算法,它以信息增益為準(zhǔn)少的程度。在ID3算法中,選擇具有最高信息增益的屬性作為劃分屬性,因?yàn)檫@樣可以使決策樹(shù)的分支更加簡(jiǎn)潔,從而提高決策樹(shù)的泛化能力。因此,選項(xiàng)AD、訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能A、可以采用cross-va1idalion方法選擇最佳核函數(shù)B、滿(mǎn)足Mercer條件的函數(shù)不一定能作為支持向量機(jī)的核函數(shù)D、函數(shù)與非線(xiàn)性映射并不是一一對(duì)應(yīng)的關(guān)系A(chǔ)、合并的層次聚類(lèi)112.在一個(gè)線(xiàn)性回歸問(wèn)題中,我們使用R平方(R-Squared)來(lái)判斷擬合度。此時(shí),如果增加一個(gè)特征,模型不變,則下面說(shuō)法正確的是?B、如果R-Squared減小,則這個(gè)特征沒(méi)有意義D、以上說(shuō)法都不對(duì)B、數(shù)據(jù)的缺失值影響不大C、要求數(shù)據(jù)的屬性是相互獨(dú)立的D、條件獨(dú)立的假設(shè)可能不成立下面哪個(gè)模型不屬于線(xiàn)性模型?A、感知機(jī)線(xiàn)性的,而AdaBoost是一種集成學(xué)習(xí)算法,它通過(guò)組合多個(gè)弱學(xué)習(xí)器來(lái)構(gòu)建一個(gè)強(qiáng)學(xué)習(xí)器,其判別函數(shù)不是線(xiàn)性的。因此,不屬于線(xiàn)性模型的是選項(xiàng)B。115.6.AGNES是一種()聚合策略的層次聚類(lèi)算法C、由最近樣本決定正確答案是選項(xiàng)B。116.樸素貝葉斯是一種典型的基于概率的機(jī)器學(xué)習(xí)方法,它利用了B、后驗(yàn)概率C、以上都是也利用了后驗(yàn)概率,選項(xiàng)C正確。判斷題A、正確A、正確現(xiàn)很差。為了避免過(guò)擬合,可以采用剪枝的方法。剪枝的基本策略有“預(yù)剪枝”試誤差之間的差別會(huì)隨著n的增加而減小解析:當(dāng)數(shù)據(jù)點(diǎn)數(shù)量$n$增加時(shí),用于訓(xùn)練和測(cè)試的數(shù)據(jù)點(diǎn)$的增加,訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)的分布會(huì)更加接$n$的增加而減小。這意味著模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn)會(huì)更接近在測(cè)試數(shù)據(jù)上的5.貝葉斯網(wǎng)不是因果關(guān)系網(wǎng)絡(luò)圖8.K均值算法的E值越小則簇內(nèi)樣本相似度解析:答案解析:在K均值算法中,E值(誤差平方和)越小,表示各個(gè)簇內(nèi)樣程度越好12.BP算法“喜新厭舊”,在學(xué)習(xí)新樣本后,會(huì)把舊樣解析:KNN算法的基本思路是:如果一個(gè)樣本在特征空間中的k個(gè)最相似(即特解析:答案解析:AGNES算法(層次聚類(lèi)算法)確實(shí)包括單鏈接、全鏈接和均鏈20.2.Bagging被譽(yù)為“代表集成學(xué)習(xí)技術(shù)水平的方法”23.決策樹(shù)是基于樹(shù)結(jié)構(gòu)來(lái)進(jìn)行決策的,決策樹(shù)學(xué)習(xí)的目的是為了產(chǎn)生一棵泛化25.機(jī)器學(xué)習(xí)方法傳統(tǒng)上可以分為2類(lèi)?銷(xiāo)為0,等收到測(cè)試樣本后進(jìn)行處理。解析:KNN(K最近鄰)算法的訓(xùn)練過(guò)程實(shí)際上是將訓(xùn)練數(shù)據(jù)存儲(chǔ)起來(lái),以便在此訓(xùn)練時(shí)間開(kāi)銷(xiāo)為0。當(dāng)收到測(cè)試樣本時(shí),KNN算法會(huì)計(jì)算測(cè)試樣本中各個(gè)樣本的距離,并選擇距離最近的K個(gè)樣本。然后,根據(jù)這K個(gè)樣本的類(lèi)別不可少A、正確在BP算法中,反向傳播的目的是根據(jù)網(wǎng)絡(luò)的輸出誤差來(lái)調(diào)整網(wǎng)絡(luò)中的權(quán)值,使38.決策樹(shù)的生成是一個(gè)遞歸過(guò)程在決策樹(shù)基本算法中,有三種情形會(huì)導(dǎo)致遞歸對(duì)于密度可達(dá),若點(diǎn)$o$密度可達(dá)點(diǎn)$p40.決策樹(shù)的適用面較廣,對(duì)于分類(lèi)應(yīng)用和回歸應(yīng)用,決策樹(shù)都可以被用來(lái)構(gòu)建解析:Bagging是一種集成學(xué)習(xí)算法,它通過(guò)自助采樣法(bootstrapsling)從解析:PCA(PrincipalComponentAnalysis)即主成分分析,是一種常用的無(wú)監(jiān)46.過(guò)擬合是有監(jiān)督學(xué)習(xí)的挑戰(zhàn),而不是無(wú)監(jiān)督學(xué)習(xí)聲和細(xì)節(jié),而無(wú)法泛化到新的數(shù)據(jù)。然而,過(guò)擬合也可47.1.集成學(xué)習(xí)可得到比單一學(xué)習(xí)器更好的泛化性能,尤其是弱學(xué)習(xí)器,泛化性能略大于50%器的泛化性能略大于50%時(shí),集成學(xué)習(xí)可以通過(guò)組合這些學(xué)習(xí)器,進(jìn)一步提高性策樹(shù)。解析:特征選擇是從一組特征中選擇出最相關(guān)、最有代表性的特征子集的過(guò)程。解析:答案解析:PCA(主成分分析)通過(guò)將高維數(shù)據(jù)投影到低維空間,保留數(shù)行組合來(lái)提高預(yù)測(cè)準(zhǔn)確性。在構(gòu)建決策樹(shù)時(shí),隨機(jī)森林56.若參數(shù)C(costparameter)被設(shè)為無(wú)窮,只要最佳分類(lèi)超平面存在,它就能59.通常,我們認(rèn)為對(duì)于一個(gè)系統(tǒng)來(lái)說(shuō),誤差越小越好,因此無(wú)論是泛化誤差還誤差可以代表SVM對(duì)新數(shù)據(jù)的預(yù)測(cè)準(zhǔn)確度。A、正確68.由于貝努力貝葉斯比適合于貝努力(二項(xiàng)分布)分布,因此,貝努力貝葉斯填空題1.()可通過(guò)對(duì)ROC曲線(xiàn)下各部分的面積求和而得到2.CART算法,在決策樹(shù)生成過(guò)程中,以為特征選擇的準(zhǔn)則。答案:基尼指數(shù)3.聚類(lèi)將數(shù)據(jù)集中的樣本劃分為()的子集。答案:若干個(gè)不相交4.C4.5算法,在決策樹(shù)生成過(guò)程中,以為特征選擇的準(zhǔn)則。答案:信息增益率5.是決策樹(shù)學(xué)習(xí)算法對(duì)付“過(guò)擬合”的主要手段。答案:剪枝6.()是精確率和召回率的調(diào)和值答案:F17.支持向量機(jī)的形式是要求所有樣本均滿(mǎn)足約束,這稱(chēng)為“”答案:硬間隔8.在研究對(duì)比不同算法的泛化性能時(shí),我們用()上的判別效果來(lái)估計(jì)模型在實(shí)際使用時(shí)的泛化能力,而把訓(xùn)練數(shù)據(jù)另外劃分為訓(xùn)練集和驗(yàn)證集,基于驗(yàn)證集上的性能來(lái)進(jìn)行模型選擇和調(diào)參。答案:測(cè)試集9.高斯混合聚類(lèi)采用()來(lái)表達(dá)聚類(lèi)原型。答案:概率模型10.將原始空間中的向量作為輸入向量,并返回特征空間(轉(zhuǎn)換后的數(shù)據(jù)空間,可能是高維)中向量的點(diǎn)積的函數(shù)稱(chēng)為13.對(duì)函數(shù)dist(.,.),若它是一個(gè)距離度量則需要滿(mǎn)足非負(fù)性,同一性,對(duì)稱(chēng)15.梯度下降法,在使用的時(shí)候無(wú)非是考慮到兩個(gè)方面:一是(),二是()。16.人工神經(jīng)網(wǎng)絡(luò)按性能可分為離散型和()答案:變小18.()是指正確分類(lèi)的正樣本個(gè)數(shù)占分類(lèi)器判定為正樣本的樣本個(gè)數(shù)的比例23.()是緩解維數(shù)災(zāi)難的一個(gè)重要途徑,即通過(guò)某種數(shù)學(xué)變換將原始高維屬性空間轉(zhuǎn)變?yōu)橐粋€(gè)低維“子空間”,在這個(gè)子空間中樣本密度大幅提高,距離計(jì)算24.訓(xùn)練SVM的最小時(shí)間復(fù)雜度為0(n2),那么()數(shù)據(jù)集不適合用SVM答案:大25."糾錯(cuò)輸出碼"(ErrorCorrectingOutputCodes,簡(jiǎn)稱(chēng)ECOC)工作過(guò)程中為兩步,一步,一步解碼。26.一般的多層感知器包含哪三種類(lèi)型層次的27.在最小化錯(cuò)誤率方面()的性能是最優(yōu)的28.剪枝處理分為和,前者使得決策樹(shù)的29.在現(xiàn)實(shí)生活中樸素貝葉斯分類(lèi)器有多種使用方式,若任務(wù)數(shù)據(jù)更替頻繁,則可以采用()方式,先不進(jìn)行任何訓(xùn)練,待收到預(yù)測(cè)請(qǐng)求后再根據(jù)當(dāng)前數(shù)據(jù)進(jìn)行答案:懶惰學(xué)習(xí)30.邏輯回歸是()學(xué)習(xí)31.層次聚類(lèi)試圖在()對(duì)數(shù)據(jù)集進(jìn)行劃分,32.批量梯度下降法是指在每一次迭代時(shí)使用()樣本來(lái)進(jìn)行梯度的更新。34.線(xiàn)性模型(linearmodel)試圖學(xué)得一個(gè)通過(guò)屬性的組合來(lái)進(jìn)行預(yù)測(cè)36.神經(jīng)網(wǎng)絡(luò)中最基本的成分是()模型結(jié)合時(shí),常對(duì)分類(lèi)任務(wù)使用(),對(duì)回歸任務(wù)使用().答案:140.多數(shù)投票法分為()和()42.在機(jī)器學(xué)習(xí)中,對(duì)高維數(shù)據(jù)進(jìn)行降維的主要目的是希望找到一個(gè)合適的(),43.個(gè)體決策樹(shù)的構(gòu)建過(guò)程中Bagging使用的是()型決策樹(shù),而隨森林使用的是()型決策樹(shù)44.貝葉斯網(wǎng)亦稱(chēng)“信念網(wǎng)”,它借助()來(lái)刻畫(huà)屬性之間的依賴(lài)關(guān)系答案:有向無(wú)環(huán)圖45.常見(jiàn)的兩種梯度下降算法()47.樣本的特征數(shù)也稱(chēng)為(),當(dāng)維數(shù)非常大時(shí),也就是通常所說(shuō)的()1 052.訓(xùn)練誤差較大,測(cè)試誤差較大,是指模型出現(xiàn)了()的情況53.寫(xiě)出一個(gè)你知道的線(xiàn)性降維方法:()54.要獲得好的集成,個(gè)體學(xué)習(xí)器要有一定的()性和()性55.ID3算法,在決策樹(shù)生成過(guò)程中,以56.()算法是常用的估計(jì)參數(shù)隱變量的利器 ,可以實(shí)現(xiàn)斜劃分甚至更復(fù)雜的劃分形式。58.隨機(jī)梯度下降是每次迭代使用()樣本來(lái)對(duì)參數(shù)進(jìn)行更新。59.PCA是一種()監(jiān)督的降維方法答案:無(wú)61.()是指正確分類(lèi)的正樣本個(gè)數(shù)占真正的正樣本數(shù)的比例進(jìn)行,我們希望決策樹(shù)的分支結(jié)點(diǎn)的越來(lái)越高63.1.從偏差-方差的角度看,Bagging主要關(guān)注降低(),Boos64.填空:線(xiàn)性降維方法假設(shè)從高維空間到低維空間的函數(shù)映射是()的66.填空:馬氏距離表示數(shù)據(jù)的()距離67.回歸任務(wù)最常用的性能度量是()68.貝葉斯分類(lèi)器的訓(xùn)練,就是從樣本集數(shù)據(jù)中估計(jì)出()()70.任何一個(gè)核函數(shù)都隱式地定義了一個(gè)稱(chēng)為“”的特征空間71.集成學(xué)習(xí)中常用的結(jié)合策略有(),(),()72.DBSCAN是一種著名的()算法,基于一組()參數(shù)來(lái)刻畫(huà)樣本分布的緊密程度。73.神經(jīng)網(wǎng)絡(luò)模型按照網(wǎng)絡(luò)的結(jié)構(gòu)可分為前饋型和()。74.P-R曲線(xiàn)的橫坐標(biāo)代表(),縱坐標(biāo)代表()75.對(duì)數(shù)幾率回歸(logisticregression)雖名為“回歸”,實(shí)際上是一種 76.隨機(jī)森林通過(guò)()提高性能78.可看作學(xué)習(xí)算法在給定數(shù)據(jù)和參數(shù)空間上的實(shí)例化80.標(biāo)準(zhǔn)梯度下降法若誤差曲面存在多個(gè)局部最小值,那么標(biāo)準(zhǔn)梯度模型可能找81.2.()通過(guò)構(gòu)建并結(jié)合多個(gè)學(xué)習(xí)器來(lái)完成學(xué)習(xí)任務(wù),有時(shí)也被稱(chēng)為多分類(lèi)器82.隨機(jī)森林的基本思想包括()()85.兩個(gè)異類(lèi)支持向量到超平面的距離之和被稱(chēng)為“”答案:間隔86.是說(shuō),若有多個(gè)假設(shè)與觀察一致,則選擇最簡(jiǎn)單的87.C4.5決策樹(shù)算法中采用對(duì)連續(xù)屬性進(jìn)行處理。88.在“單位階躍函數(shù)”(unit-stepfunction)的作用下,若輸入實(shí)值z(mì)<0,則應(yīng)答案:反的是(),個(gè)體學(xué)習(xí)器間不存在強(qiáng)依賴(lài)關(guān)系,可同時(shí)生成的是()。90.一組數(shù)據(jù)類(lèi)別數(shù)為N,則若該數(shù)據(jù)使用LDA算法降維,降維之后的維數(shù)最多91.當(dāng)學(xué)習(xí)器把訓(xùn)練樣本學(xué)得太好了的時(shí)候,很可能已經(jīng)把訓(xùn)練樣本自身的一些種現(xiàn)象在機(jī)器學(xué)習(xí)中稱(chēng)為()。與之相對(duì)的(),這是指對(duì)訓(xùn)練樣本的一般性質(zhì)92.三種常用的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 內(nèi)分泌科科普
- 內(nèi)分泌用藥官方培訓(xùn)課件
- 冀時(shí)調(diào)培訓(xùn)課件
- 獸藥質(zhì)檢流程培訓(xùn)課件
- 計(jì)量確認(rèn)記錄的管理制度(3篇)
- 車(chē)站精細(xì)管理制度(3篇)
- 酒店給水設(shè)備區(qū)管理制度(3篇)
- 獸藥GSP培訓(xùn)課件
- 《GA 447-2003警服材料 精梳滌棉混紡格子布》專(zhuān)題研究報(bào)告
- 2026年及未來(lái)5年市場(chǎng)數(shù)據(jù)中國(guó)KTV點(diǎn)歌系統(tǒng)行業(yè)市場(chǎng)競(jìng)爭(zhēng)格局及發(fā)展趨勢(shì)預(yù)測(cè)報(bào)告
- 《山東省市政工程消耗量定額》2016版交底培訓(xùn)資料
- 《中醫(yī)六經(jīng)辨證》課件
- 掛名合同協(xié)議書(shū)
- 蘇教版高中化學(xué)必修二知識(shí)點(diǎn)
- 2024年國(guó)家公務(wù)員考試國(guó)考中國(guó)人民銀行結(jié)構(gòu)化面試真題試題試卷及答案解析
- 2025年中考語(yǔ)文一輪復(fù)習(xí):民俗類(lèi)散文閱讀 講義(含練習(xí)題及答案)
- 高中數(shù)學(xué)選擇性必修一課件第一章 空間向量與立體幾何章末復(fù)習(xí)(人教A版)
- 標(biāo)準(zhǔn)商品房買(mǎi)賣(mài)合同文本大全
- LY/T 3408-2024林下經(jīng)濟(jì)術(shù)語(yǔ)
- 2025年湖南邵陽(yáng)市新邵縣經(jīng)濟(jì)開(kāi)發(fā)區(qū)建設(shè)有限公司招聘筆試參考題庫(kù)附帶答案詳解
- 2023-2024學(xué)年八年級(jí)(上)期末數(shù)學(xué)試卷
評(píng)論
0/150
提交評(píng)論