版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
《機器學習》期末考試復習題庫(附答案)單選題1.做一個二分類預測問題,先設定閾值為0.5,概率大于等于0.5的樣本歸入正例類(即1),小于0.5的樣本歸入反例類(即0)。然后,用閾值n(n>0.5)重新劃分樣本到正例類和反例類,下面哪一種說法正確是()1.增加閾值不會提高召回率2.增加閾值會提高召回率3.增加閾值不會降低查準率4.增加閾值會降低查準率A、1B、2C、1、3D、2、4參考答案:C2.在一個線性回歸問題中,我們使用R平方(R-Squared)來判斷擬合度。此時,如果增加一個特征,模型不變,則下面說法正確的是?A、如果R-Squared增加,則這個特征有意義B、如果R-Squared減小,則這個特征沒有意義C、僅看R-Squared單一變量,無法確定這個特征是否有意義。D、以上說法都不對參考答案:C3.在機器學習中,學得的模型適用于新樣本的能力稱為()A、分析能力B、泛化能力C、訓練能力D、驗證能力參考答案:B4.在回歸模型中,下列哪一項在權衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?A、多項式階數(shù)B、更新權重w時,使用的是矩陣求逆還是梯度下降C、使用常數(shù)項參考答案:A5.在構造決策樹時,以下哪種不是選擇屬性的度量的方法A、信息值B、信息增益C、信息增益率D、基尼指數(shù)參考答案:A6.在大數(shù)據(jù)集上訓練決策樹,為了使用較少時間,我們可以()A、增加樹的深度B、增加學習率C、減少樹的深度D、減少樹的數(shù)量參考答案:C7.在變量選擇過程中,下列哪些方法可用于檢查模型的性能?a.多重變量用于同一個模型b.模型的可解釋性c.特征的信息d.交叉驗證A、dB、abcC、acdD、全部參考答案:C8.在SVM中,margin的含義是()A、差額B、損失誤差C、幅度D、間隔參考答案:D9.以下有關隨機森林算法的說法錯誤的是:A、隨機森林算法的分類精度不會隨著決策樹數(shù)量的增加而提高B、隨機森林算法對異常值和缺失值不敏感C、隨機森林算法不需要考慮過擬合問題D、決策樹之間相關系數(shù)越低、每棵決策樹分類精度越高的隨機森林模型分類效果越好參考答案:C10.以下哪些是無序屬性()A、{1,2,3}B、{飛機,火車、輪船}C、閔可夫斯基距離D、{小,中,大}參考答案:B11.以下哪項是非線性降維方法A、PCA(主成分分析)B、LDA(線性判別)C、ICA(獨立成分分析)D、KPCA(核化線性降維)參考答案:D12.以下哪個是PCA算法的主要應用?A、聚類B、分類C、距離度量D、數(shù)據(jù)壓縮參考答案:D13.以下哪個不是原型聚類算法()A、K均值算法B、學習向量量化LVQC、高斯混合聚類D、PCA算法參考答案:D14.以下哪個不是常見的決策樹算法A、ID3B、C4.5C、ARTD、BSCAN參考答案:D15.以下關于訓練集、驗證集和測試集說法不正確的是()。A、驗證集用于調整模型參數(shù)B、測試集是純粹是用于測試模型泛化能力C、以上說法都不對D、訓練集是用來訓練以及評估模型性能參考答案:D16.以下關于學習率說法錯誤的是()。A、學習率太大會導致無法收斂B、學習率必須是固定不變的C、學習率的選擇不能太大也不能太小D、學習率太小會使得算法陷入局部極小點參考答案:B17.以下關于神經網絡的說法中,正確的是()?A、增加網絡層數(shù),一定能減小訓練集錯誤率B、減小網絡層數(shù),一定能減小測試集錯誤率C、增加網絡層數(shù),可能增加測試集錯誤率D、增加網絡層數(shù),一定增加測試集錯誤率參考答案:C18.以下關于降維說法不正確的是?A、降維是將訓練樣本從高維空間轉換到低維空間B、降維有助于數(shù)據(jù)可視化C、通過降維可以更有效地發(fā)掘有意義的數(shù)據(jù)結構D、降維不會對數(shù)據(jù)產生損傷參考答案:D19.以下關于機器學習描述錯誤的是?A、是一門涉及統(tǒng)計學、系統(tǒng)辨識、逼近理論、神經網絡、優(yōu)化理論、計算機科學、腦科學等諸多領域的交叉學科B、研究計算機怎樣模擬或實現(xiàn)人類的學習行為,以獲取新的知識或技能C、器學習強調三個關鍵詞:算法、模型、訓練D、基于數(shù)據(jù)的機器學習是現(xiàn)代智能技術中的重要方法之一參考答案:C20.以下關于感知器說法錯誤的是:()A、感知器中的偏置只改變決策邊界的位置B、可為感知器的輸出值設置閾值使其用于處理分類問題C、單層感知器可以用于處理非線性學習問題D、感知器是最簡單的前饋式人工神經網絡參考答案:C21.以下關于Sigmoid的特點說法錯誤的是()。A、Sigmoid函數(shù)計算量小B、趨向無窮的地方,函數(shù)變化很小,容易出現(xiàn)梯度消失的現(xiàn)象C、可以將函數(shù)值的范圍壓縮到[0,1]D、函數(shù)處處連續(xù)參考答案:A22.一個包含n類的多分類問題,若采用一對剩余的方法,需要拆分成多少次?A、nB、1C、n-1D、n+1參考答案:C23.一對一法分類器,k個類別需要多少個SVM:A、k(k-1)/2B、k(k-1)C、kD、k!參考答案:A24.一般來說,下列哪種方法常用來預測連續(xù)獨立變量?A、線性回歸B、邏輯回顧C、線性回歸和邏輯回歸都行D、以上說法都不對參考答案:A25.線性回歸能完成的任務是A、預測離散值B、預測連續(xù)值C、分類D、聚類參考答案:B26.下面關于貝葉斯分類器描述錯誤的是A、以貝葉斯定理為基礎B、是基于后驗概率C、可以解決有監(jiān)督學習的問題D、可以用極大似然估計法解貝葉斯分類器參考答案:B27.下面關于SVM算法敘述不正確的是()A、SVM在解決小樣本、非線性及高維模式識別問題中具有優(yōu)勢B、SVM是一種基于經驗風險最小化準則的算法C、SVM求得的解為全局唯一最優(yōu)解D、SVM最終分類結果只與少數(shù)支持向量有關參考答案:B28.下面符合特征選擇標準的是()A、越少越好B、越多越好C、選擇能夠反映不同事物差異的特征D、以上均不對參考答案:C29.下面不屬于過擬合原因的是A、特征維度過多B、模型假設過于復雜C、訓練數(shù)據(jù)過多D、噪聲過多參考答案:C30.下列中為判別模型的是()A、高斯混合模型B、隱含馬爾科夫模型C、GAN模型D、邏輯回歸模型參考答案:D31.下列有關支持向量機說法不正確的是:A、得到的是局部最優(yōu)解B、具有很好的推廣能力C、采用結構風險最小化原理D、是凸二次優(yōu)化問題參考答案:A32.下列有關核函數(shù)不正確的是:A、可以采用cross-va1idalion方法選擇最佳核函數(shù)B、滿足Mercer條件的函數(shù)不一定能作為支持向量機的核函數(shù)C、極大地提高了學習機器的非線性處理能力D、函數(shù)與非線性映射并不是一一對應的關系參考答案:B33.下列有關SVM和LR說法不正確的是()A、SVM是分類模型,LR是回歸模型B、SVM和LR都是分類模型C、SVM是判別式模型D、LR判別式模型參考答案:A34.下列誤差和錯誤中,哪一項是由于訓練樣本的錯誤而導致?A、泛化誤差B、偏差C、方差D、噪聲參考答案:D35.下列是機器學習中降維任務的準確描述的為A、依據(jù)某個準則對項目進行排序B、將其映射到低維空間來簡化輸入C、預測每個項目的實際值D、對數(shù)據(jù)對象進行分組參考答案:B36.下列哪種歸納學習采用符號表示方式?A、經驗歸納學習B、遺傳算法C、聯(lián)接學習D、強化學習參考答案:A37.下列哪種方法可以用來緩解過擬合的產生:()。A、正則化B、增加更多的特征C、以上都是D、增加模型的復雜度參考答案:A38.下列哪一種偏移,是我們在最小二乘直線擬合的情況下使用的?圖中橫坐標是輸入X,縱坐標是輸出Y。A、垂直偏移B、垂向偏移C、兩種偏移都可以D、以上說法都不對參考答案:A39.下列兩個變量之間的關系中,那一個是線性關系A、學生的性別與他(她)的數(shù)學成績B、人的工作環(huán)境與他的身體健康狀況C、兒子的身高與父親的身高D、正方形的邊長與周長參考答案:D40.下列激活函數(shù)中,能夠實現(xiàn)將特征限制到區(qū)間[-1,1]的是哪一個A、TanhB、LogisticC、ReLUD、Sigmoid參考答案:A41.下列關于主成分分析的表述錯誤的是A、主成分分析方法一種數(shù)據(jù)降維的方法B、通過主成分分析,可以將多個變量縮減為少數(shù)幾個新的變量,而信息并沒有損失,或者說信息損失很少C、通過主成分分析,可以用較少的新的指標來代替原來較多的指標反映的信息,并且新的指標之間是相互獨立的D、主成分分析是數(shù)據(jù)增維的方法參考答案:D42.下列關于線性回歸分析中的殘差(Residuals)說法正確的是?A、殘差均值總是為零B、殘差均值總是小于零C、殘差均值總是大于零D、以上說法都不對參考答案:A43.下列關于過擬合的說法錯誤的是A、過擬合是指模型在訓練集上表現(xiàn)很好,但是在交叉驗證集和測試集上表現(xiàn)一般B、解決過擬合可以采用Dropout方法C、解決過擬合可以采用參數(shù)正則化方法D、數(shù)據(jù)集擴增不能用來解決過擬合問題參考答案:D44.下列關于Boosting和Bagging的描述正確的是:A、Boosting主要關注降低方差B、oosting的代表算法有隨機森林C、Bagging基于自助采樣法D、Bagging主要關注降低偏差參考答案:C45.下列方法中,屬于無監(jiān)督學習的為()A、線性回歸B、K均值C、神經網絡D、決策樹參考答案:B46.下列不屬于集成學習方法是A、baggingB、connectingC、boostingD、stacking參考答案:B47.下列不是SVM核函數(shù)的是:A、多項式核函數(shù)B、logistic核函數(shù)C、徑向基核函數(shù)D、Sigmoid核函數(shù)參考答案:B48.下列表述中,在k-fold交叉驗證中關于選擇K說法正確的是A、較大的K并不總是好的,選擇較大的K可能需要較長的時間來評估你的結果B、相對于期望誤差來說,選擇較大的K會導致低偏差(因為訓練folds會變得與整個數(shù)據(jù)集相似)C、在交叉驗證中通過最小化方差法來選擇K值D、以上都正確參考答案:D49.下列貝葉斯網結構中不屬于三種典型的依賴關系A、同父結構B、選擇結構C、順序結構D、V型結構參考答案:B50.同質集成中的個體學習器亦稱()A、基學習器B、同質學習器C、組件學習器D、異質學習器參考答案:A51.四個點坐標為(1,1),(1,0),(-1,-1),(-1,0),用SVM分類的決策邊界是A、y=xB、x=0C、y=-xD、y=0參考答案:B52.神經網絡算法有時會出現(xiàn)過擬合的情況,那么采取以下哪些方法解決過擬合更為可行()。A、為參數(shù)選取多組初始值,分別訓練,再選取一組作為最優(yōu)值B、增大學習的步長C、減少訓練數(shù)據(jù)集中數(shù)據(jù)的數(shù)量D、設置一個正則項減小模型的復雜度參考答案:D53.若某學習器預測的是離散值,則此類學習任務稱為()A、分類B、聚類C、回歸D、強化學習參考答案:A54.若svm出現(xiàn)欠擬合,以下合適的做法是A、使用更powful的kernelB、增加訓練樣本C、使用L2正規(guī)化D、做數(shù)據(jù)增強參考答案:A55.如果一個SVM模型出現(xiàn)欠擬合,那么下列哪種方法能解決這一問題?A、增大懲罰參數(shù)C的值B、減小懲罰參數(shù)C的值C、減小核系數(shù)(gamma參數(shù))D、都不正確參考答案:A56.如果我們說“線性回歸”模型完美地擬合了訓練樣本(訓練樣本誤差為零),則下面哪個說法是正確的?A、測試樣本誤差始終為零B、測試樣本誤差不可能為零C、以上答案都不對參考答案:C57.樸素貝葉斯是一種典型的基于概率的機器學習方法,它利用了A、先驗概率B、后驗概率C、以上都是D、以上都不是參考答案:C58.樸素貝葉斯分類器的特征不包括A、孤立的噪聲對該分類器的影響不大B、數(shù)據(jù)的缺失值影響不大C、要求數(shù)據(jù)的屬性是相互獨立的D、條件獨立的假設可能不成立參考答案:C59.樸素貝葉斯分類器的三種實現(xiàn)不包括A、基于伯努利模型實現(xiàn)B、基于多項式模型實現(xiàn)C、屬性條件獨立性假設實現(xiàn)D、基于高斯模型實現(xiàn)參考答案:C60.哪一個是機器學習的合理定義?A、機器學習是計算機編程的科學B、機器學習從標記的數(shù)據(jù)中學習C、機器學習是允許機器人智能行動的領域D、機器學習能使計算機能夠在沒有明確編程的情況下學習參考答案:D61.哪些機器學習模型經過訓練,能夠根據(jù)其行為獲得的獎勵和反饋做出一系列決策?A、無監(jiān)督學習B、監(jiān)督學習C、強化學習D、以上全部參考答案:C62.模型評估的常用方法有哪些A、留出法B、交叉驗證法C、自助法D、以上都是參考答案:D63.決策樹中不包含以下哪種結點A、根節(jié)點B、內部結點C、葉節(jié)點D、外部結點參考答案:D64.決策樹學習的關鍵是A、初始結點選擇B、剪枝C、選擇最優(yōu)劃分屬性D、分枝參考答案:C65.決策樹模型中應如何妥善處理連續(xù)型屬性A、直接忽略B、利用固定閾值進行離散化C、根據(jù)信息增益選擇閾值進行離散化D、隨機選擇數(shù)據(jù)標簽發(fā)生變化的位置進行離散化參考答案:C66.將數(shù)據(jù)集D進行適當處理,產生出訓練集S和測試集T,有哪些常見的做法:A、留出法B、交叉驗證法C、自助法D、以上都是參考答案:D67.假設現(xiàn)在只有兩個類,這種情況下SVM需要訓練幾次?A、1B、2C、3D、4參考答案:A68.假設我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標函數(shù)。我們需要做什么來保證得到的模型是線性可分離的?A、C=0B、C=1C、正無窮大D、C負無窮大參考答案:C69.假設你有以下數(shù)據(jù):(0,2)(2,2)(3,1)輸入和輸出都只有一個變量。使用線性回歸模型(y=wx+b)來擬合數(shù)據(jù)。那么使用留一法(Leave-OneOut)交叉驗證得到的均方誤差是多少?A、10/32B、39/27C、49/27D、55/27參考答案:C70.假如我們使用Lasso回歸來擬合數(shù)據(jù)集,該數(shù)據(jù)集輸入特征有100個(X1,X2,…,X100)。現(xiàn)在,我們把其中一個特征值擴大10倍(例如是特征X1),然后用相同的正則化參數(shù)對Lasso回歸進行修正。那么,下列說法正確的是?A、特征X1很可能被排除在模型之外B、特征X1很可能還包含在模型之中C、無法確定特征X1是否被舍棄D、以上說法都不對參考答案:B71.極大似然估計中參數(shù)是()A、確定且已知的量B、確定且未知的量C、已知的隨機變量D、未知的隨機變量參考答案:B72.極大似然估計是()A、與總體分布無關的統(tǒng)計量B、通過總體分布才能求出來的統(tǒng)計量C、似然方程的解D、對數(shù)似然方程的解參考答案:B73.基于層次的聚類算法包括()。A、合并的層次聚類B、基于密度的聚類算法C、基于劃分的算法D、基于網絡的聚類算法參考答案:A74.機器學習這個術語是由()定義的?A、rthurSamuelB、GuidovanRossumC、JamesGoslingD、以上都不是參考答案:A75.混淆矩陣中的TP=16,F(xiàn)P=12,F(xiàn)N=8,TN=4,準確率是A、四分之一B、二分之一C、七分之四D、三分之二參考答案:B76.混淆矩陣的真負率公式是為A、TP/(TP+FN)B、FP/(FP+TN)C、FN/(TP+FN)D、TN/(TN+FP)參考答案:D77.關于維數(shù)災難說法錯誤的是?A、高維度數(shù)據(jù)可使得算法泛華能力變得越來越弱B、降低高維度數(shù)據(jù)會對數(shù)據(jù)有所損傷C、高維度數(shù)據(jù)增加了運算難度D、高維度數(shù)據(jù)難以可視化參考答案:A78.關于隨機森林,說法錯誤的是:A、相對于Boosting系列的Adaboost和GBDT,RF實現(xiàn)比較簡單。B、在訓練后,可以給出各個特征對于輸出的重要性C、訓練高度串行化D、隨機采樣,訓練出的模型的方差小,泛化能力強參考答案:C79.關于數(shù)據(jù)規(guī)范化,下列說法中錯誤的是()。A、標準化實際上是將數(shù)據(jù)在樣本的標準差上做了等比例的縮放操作B、歸一化利用了樣本中的最大值和最小值C、包含標準化和歸一化D、標準化在任何場景下受異常值的影響都很小參考答案:D80.關于決策樹結點劃分指標描述正確的是A、類別非純度越大越好B、信息增益越大越好C、信息增益率越小越好D、基尼指數(shù)越大越好參考答案:B81.關于決策樹,以下哪種說法是正確的A、可讀性強B、只用于分類問題C、只用于回歸問題D、是無監(jiān)督學習參考答案:A82.關于SVM泛化誤差描述正確的是A、超平面與支持向量之間距離B、超平面與支持向量之間距離C、SVM的誤差閾值參考答案:B83.關于logistic回歸和SVM不正確的是()A、Logistic回歸目標函數(shù)是最小化后驗概率B、Logistic回歸可以用于預測事件發(fā)生概率的大小C、SVM目標是結構風險最小化D、SVM可以有效避免模型過擬合參考答案:A84.關于K-均值算法,以下說法不正確的是A、K-均值算法是一種劃分方法。B、K-均值算法能發(fā)現(xiàn)任意形狀的簇。C、K-均值算法不一定收斂于全局最優(yōu)解。D、比起DBSCAN算法來,K更好參考答案:B85.關于EM算法正確的是A、EM算法包括兩步:E算法和M算法B、EM算法一定能收斂到全局最大值點C、英文全稱是Expectation-MinimizationD、以上都不正確參考答案:A86.關于BP算法優(yōu)缺點的說法錯誤的是()。A、BP算法不能用于處理非線性分類問題B、P算法容易陷入局部最小值C、BP算法訓練時間較長D、BP算法訓練時候可能由于權值調整過大使得激活函數(shù)達到飽和參考答案:A87.關于BP算法信號前向傳播的說法正確的是()。A、BP算法在計算正向傳播輸出值時需要考慮激活函數(shù)B、P算法信號前向傳播的計算量跟輸入層神經元數(shù)目無關C、BP算法只有在隱層才有激活函數(shù)D、BP算法信號傳播的順序是輸出層、隱層、輸入層。參考答案:A88.關于BP算法特點描述錯誤的是()A、輸入信號順著輸入層、隱層、輸出層依次傳播B、計算之前不需要對訓練數(shù)據(jù)進行歸一化C、預測誤差需逆向傳播,順序是輸出層、隱層、輸入層D、各個神經元根據(jù)預測誤差對權值進行調整參考答案:B89.關于BP算法反向傳播的說法正確的是()。A、BP算法反向傳播進行更新時一般用到微積分的鏈式傳播法則B、P算法更新量與步長關系不大C、BP算法反向傳播的預測誤差值一般由真實標簽值和預測標簽值的差計算得來D、BP算法反向傳播的目的是只對權值進行更新參考答案:A90.谷歌新聞每天收集非常多的新聞,并運用()方法再將這些新聞分組,組成若干類有關聯(lián)的新聞。于是,搜索時同一組新聞事件往往隸屬同一主題的,所以顯示到一起。A、關聯(lián)規(guī)則B、聚類C、回歸D、分類參考答案:B91.構建一個最簡單的線性回歸模型需要幾個系數(shù)(只有一個特征)?A、1個B、2個C、3個D、4個參考答案:B92.對主成分分析PCA方法描述正確的是:A、投影矩陣是正交矩陣B、進行非正交投影C、PCA不需要進行樣本去均值D、投影到特征值最小的方向參考答案:A93.對于在原空間中線性不可分問題,支持向量機()。A、無法處理B、將數(shù)據(jù)映射到核空間中C、在原空間中尋找非線性函數(shù)的劃分數(shù)據(jù)D、在原空間中尋找線性函數(shù)劃分數(shù)據(jù)參考答案:B94.對于非概率模型而言,可按照判別函數(shù)線性與否分成線性模型與非線性模型。下面哪個模型不屬于線性模型?A、感知機B、AdaBoostC、K-meansD、k近鄰參考答案:B95.對決策樹進行剪枝處理的主要目的是什么A、避免欠擬合B、提高對訓練集的學習能力C、避免過擬合,降低泛化能力D、避免過擬合,提升泛化能力參考答案:D96.對函數(shù)dist(.,.)若它是一個距離度量則需要滿足的基本特性中以下哪個不是正確答案A、非負性B、同一性C、遞增性D、對稱性參考答案:C97.對Boosting模型的描述錯誤的是A、采用串行訓練模式B、增加被錯誤分類樣本的權值C、通過改變訓練集進行有針對性的學習D、基礎分類器采用少數(shù)服從多數(shù)原則進行集成參考答案:D98.點擊率的預測是一個數(shù)據(jù)比例不平衡問題(比如訓練集中樣本呈陰性的比例為99%,陽性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓練集的準確率高達99%。我們可以得出結論是:A、模型的準確率非常高,我們不需要進一步探索B、模型不好,我們應建一個更好的模型C、無法評價模型D、以上都不正確參考答案:B99.當訓練集很多時,一種更為強大的結合策略是使用(),即通過另一個學習器來進行結合。A、學習法B、平均法C、投票法D、加權投票法參考答案:A100.當數(shù)據(jù)分布不平衡時,我們可采取的措施不包括()。A、對數(shù)據(jù)分布較多的類別賦予更大的權重B、對數(shù)據(jù)分布較多的類別欠采樣C、對數(shù)據(jù)分布較少的類別過采樣D、對數(shù)據(jù)分布較少的類別賦予更大的權重參考答案:A101.不屬于KNN算法要素的是:A、k值的選擇B、距離度量C、分類決策的規(guī)則D、訓練樣本的個數(shù)參考答案:D102.按照求解方法進行分類算法的劃分,下列中為生成模型的是()A、決策樹B、K近鄰C、貝葉斯分類器D、支持向量機SVM參考答案:C103.SVM算法的性能取決于:A、以上所有B、軟間隔參數(shù)C、核函數(shù)的參數(shù)D、核函數(shù)的選擇參考答案:A104.StandardScaler預處理方法可以表示為?=(?-?)/,其中?表示特征所在列的A、最大值B、分解閾值C、均值D、方差參考答案:D105.K均值算法的K指的是什么?A、K是均值的數(shù)值B、K是均值的最大限值C、K是分類的數(shù)量D、K是分類的迭代次數(shù)參考答案:B106.KNN算法屬于一種典型的()算法A、監(jiān)督學習B、無監(jiān)督學習C、半監(jiān)督學習D、弱監(jiān)督學習參考答案:A107.KNN算法是基于()A、概率空間B、顏色空間C、距離空間D、線性空間參考答案:C108.ID3決策樹算法以()為準則來選擇劃分屬性A、信息增益B、信息熵C、基尼系數(shù)D、信息增益率參考答案:A109.EM算法是()學習算法A、有監(jiān)督B、無監(jiān)督C、半監(jiān)督D、都不是參考答案:B110.EM算法的停止條件()A、已達到最大迭代輪數(shù)B、數(shù)據(jù)樣本異常C、訓練器異常D、似然函數(shù)減小參考答案:A111.BP算法總結錯誤的是()。A、當前層的連接權值梯度,取決于當前層神經元閾值梯度和上一層神經元輸出B、算法只要知道上一層神經元的閾值梯度,就能計算當前層神經元的閾值梯度和連接權值梯度C、隱層的閾值梯度只跟本層的神經元輸出值有關D、隱層閾值梯度取決于隱層神經元輸出、輸出層閾值梯度和隱層與輸出層的連接權值參考答案:C112.AGNES是一種()聚合策略的層次聚類算法A、自頂向下B、自底向上C、由最近樣本決定D、最遠樣本決定參考答案:B113.下列關于線性回歸說法錯誤的是()A、在現(xiàn)有模型上,加入新的變量,所得到的R^2的值總會增加B、線性回歸的前提假設之一是殘差必須服從獨立正態(tài)分布C、殘差的方差無偏估計是SSE/(n-p)D、自變量和殘差不一定保持相互獨立參考答案:D114.“學習向量量化”與一般聚類算法不同的是()A、數(shù)據(jù)樣本帶有類別標記B、結構不同C、向量程度不同D、簇的種類不同參考答案:A115.“沒有免費的午餐定理”告訴我們A、我們不能對問題有先驗假設B、沒有可以適應一切問題的算法C、設計好的算法是徒勞的D、對于一個特定的問題,任何算法都是一樣好的參考答案:B116.()是并行式集成學習方法最著名的代表A、隨機森林B、oostingC、BaggingD、AdaBoost參考答案:C判斷題1.最近鄰分離器的泛化錯誤率不會超過貝葉斯最優(yōu)分類器錯誤率的兩倍A、正確B、錯誤參考答案:A2.支持向量是最靠近決策表面的數(shù)據(jù)點A、正確B、錯誤參考答案:A3.在基于SGD隨機梯度下降算法的神經網絡中,每次打亂數(shù)據(jù)是非常重要和必不可少A、正確B、錯誤參考答案:A4.在初始數(shù)據(jù)量足夠時,自助法比交叉驗證法更為常用。A、正確B、錯誤參考答案:B5.預剪枝決策樹通常比后剪枝決策樹保留了更多的分支。A、正確B、錯誤參考答案:B6.預剪枝決策樹的訓練時間開銷比后剪枝決策樹要大得多。A、正確B、錯誤參考答案:B7.由于貝努力貝葉斯比適合于貝努力(二項分布)分布,因此,貝努力貝葉斯只能用于二分類任務A、正確B、錯誤參考答案:B8.硬投票計算出每個類別的平均估算概率,然后選出概率最高的類別。A、正確B、錯誤參考答案:B9.一個貝葉斯網由結構和參數(shù)兩個部分構成A、正確B、錯誤參考答案:A10.一般情形下,后剪枝決策樹的欠擬合風險很小,泛化性能往往優(yōu)于預剪枝決策樹。A、正確B、錯誤參考答案:A11.一般來說,查準率高時,查全率也高。A、正確B、錯誤參考答案:B12.訓練算法的目的就是要讓模型擬合訓練數(shù)據(jù)A、正確B、錯誤參考答案:B13.線性回歸模型只能處理具有線性關系的數(shù)據(jù)。A、正確B、錯誤參考答案:B14.無監(jiān)督學習任務中研究最多、應用最廣的是聚類A、正確B、錯誤參考答案:A15.通常,我們認為對于一個系統(tǒng)來說,誤差越小越好,因此無論是泛化誤差還是經驗誤差,都是越小越好。A、正確B、錯誤參考答案:B16.梯度下降法中梯度方向是函數(shù)值下降最快方向。A、正確B、錯誤參考答案:B17.特征空間越大,過擬合的可能性越大。A、正確B、錯誤參考答案:A18.隨機森林的訓練效率通常低于BaggingA、正確B、錯誤參考答案:B19.隨機森林的兩個隨機指的是隨機選取樣本和隨機選取屬性A、正確B、錯誤參考答案:A20.數(shù)據(jù)有噪聲,有重復值,不會導致SVM算法性能下降A、正確B、錯誤參考答案:B21.輸出變量為連續(xù)變量的預測問題是分類問題A、正確B、錯誤參考答案:B22.神經網絡算法不能用于數(shù)據(jù)降維A、正確B、錯誤參考答案:B23.若參數(shù)C(costparameter)被設為無窮,只要最佳分類超平面存在,它就能將所有數(shù)據(jù)全部正確分類A、正確B、錯誤參考答案:A24.如果數(shù)據(jù)量較少,容易發(fā)生過擬合。A、正確B、錯誤參考答案:A25.任何一個有效的機器學習算法必須有其歸納偏好A、正確B、錯誤參考答案:A26.模型泛化能力與訓練樣本數(shù)量無關A、正確B、錯誤參考答案:B27.密度直達和密度可達滿足對稱性A、正確B、錯誤參考答案:B28.邏輯回歸是一個回歸模型A、正確B、錯誤參考答案:B29.邏輯回歸和樸素貝葉斯都有對屬性特征獨立的要求A、正確B、錯誤參考答案:B30.邏輯回歸分類的精度不夠高,因此在業(yè)界很少用到這個算法A、正確B、錯誤參考答案:B31.流形學習是一種非線性的維數(shù)約簡方法A、正確B、錯誤參考答案:A32.決策樹是基于樹結構來進行決策的,決策樹學習的目的是為了產生一棵泛化能力強的決策樹。A、正確B、錯誤參考答案:A33.決策樹的適用面較廣,對于分類應用和回歸應用,決策樹都可以被用來構建模型。A、正確B、錯誤參考答案:A34.決策樹的生成是一個遞歸過程在決策樹基本算法中,有三種情形會導致遞歸返回。A、正確B、錯誤參考答案:A35.剪枝是決策樹學習算法對付“過擬合”的主要手段,決策樹剪枝的基本策略有“預剪枝”和“后剪枝”。A、正確B、錯誤參考答案:A36.集成學習可得到比單一學習器更好的泛化性能,尤其是弱學習器,泛化性能略大于50%A、正確B、錯誤參考答案:A37.集成學習方法只能用于分類任務A、正確B、錯誤參考答案:B38.機器學習方法傳統(tǒng)上可以分為2類?A、正確B、錯誤參考答案:B39.回歸問題和分類問題都有可能發(fā)生過擬合A、正確B、錯誤參考答案:A40.過擬合是有監(jiān)督學習的挑戰(zhàn),而不是無監(jiān)督學習A、正確B、錯誤參考答案:B41.過擬合是有監(jiān)督學習的挑戰(zhàn),而不是無監(jiān)督學習A、正確B、錯誤參考答案:A42.過擬合比欠擬合更容易克服。A、正確B、錯誤參考答案:B43.關于特征選擇的說法,選擇的特征越多越好?A、正確B、錯誤參考答案:B44.給定n個數(shù)據(jù)點,如果其中一半用于訓練,另一半用于測試,則訓練誤差和測試誤差之間的差別會隨著n的增加而減小A、正確B、錯誤參考答案:A45.概率模型的訓練過程就是參數(shù)估計的過程A、正確B、錯誤參考答案:A46.分類預測型任務從已分類的數(shù)據(jù)中學習模型,并對新的未知分類的數(shù)據(jù)使用該模型進行解釋,得到這些數(shù)據(jù)的分類。根據(jù)標簽的不同,分別稱為分類任務和預測任務。如果類標簽是連續(xù)的類別,稱為預測任務。A、正確B、錯誤參考答案:A47.分類是預測數(shù)據(jù)對象的離散類別,預測是用于數(shù)據(jù)對象的連續(xù)取值A、正確B、錯誤參考答案:A48.反應事件或對象在某方面的表現(xiàn)或性質的事項稱為屬性A、正確B、錯誤參考答案:A49.簇內相似度高且簇間相似度低的聚類結果比較好A、正確B、錯誤參考答案:A50.貝葉斯網不是因果關系網絡圖A、正確B、錯誤參考答案:B51.貝葉斯分類器中只有一個判別函數(shù)A、正確B、錯誤參考答案:B52.SVM中的泛化誤差代表SVM對新數(shù)據(jù)的預測準確度A、正確B、錯誤參考答案:A53.PCA是有監(jiān)督學習,是有參數(shù)限制的A、正確B、錯誤參考答案:B54.PCA是一種有效的降維去噪方法A、正確B、錯誤參考答案:A55.L2正則化往往用于防止過擬合,而L1正則化往往用于特征選擇。A、正確B、錯誤參考答案:A56.K均值算法的E值越小則簇內樣本相似度越低A、正確B、錯誤參考答案:B57.KNN算法的基本思路是近朱者赤,近墨者黑A、正確B、錯誤參考答案:A58.KNN沒有顯示的訓練過程,它在訓練階段只是把數(shù)據(jù)保存下來,訓練時間開銷為0,等收到測試樣本后進行處理。A、正確B、錯誤參考答案:A59.BP算法陷入局部極小值的問題可通過更換激活函數(shù)解決。A、正確B、錯誤參考答案:B60.BP算法的正向傳播是為獲取訓練誤差。A、正確B、錯誤參考答案:A61.BP算法的反向傳播是為了對權值進行調整。A、正確B、錯誤參考答案:A62.BP算法“喜新厭舊”,在學習新樣本后,會把舊樣本逐漸遺忘。A、正確B、錯誤參考答案:A63.Boosting的訓練過程是有序的。A、正確B、錯誤參考答案:A64.Bagging只適用于二分類任務A、正確B、錯誤參考答案:B65.Bagging是基于自助采樣法的A、正確B、錯誤參考答案:A66.Bagging是并行式集成學習方法最著名的代表A、正確B、錯誤參考答案:A67.Bagging被譽為“代表集成學習技術水平的方法”A、正確B、錯誤參考答案:B68.AGNES算法分為單鏈接、全鏈接、均鏈接算法A、正確B、錯誤參考答案:A69.“硬間隔”是指SVM允許分類時出現(xiàn)一定范圍的誤差A、正確B、錯誤參考答案:B70.“獨依賴估計”是半樸素貝葉斯分類器最常用的一種策略A、正確B、錯誤參考答案:A填空題1.主成分分析方法(PCA)的主要應用是對數(shù)據(jù)進行。答:數(shù)據(jù)壓縮2.支持向量機的形式是要求所有樣本均滿足約束,這稱為“”答:硬間隔3.支持向量機的復雜程度主要與有關答:支持向量的數(shù)目4.在最小化錯誤率方面()的性能是最優(yōu)的答:貝葉斯分類器5.在研究對比不同算法的泛化性能時,我們用()上的判別效果來估計模型在實際使用時的泛化能力,而把訓練數(shù)據(jù)另外劃分為訓練集和驗證集,基于驗證集上的性能來進行模型選擇和調參。答:測試集6.在學習任務中,“分類”預測的是,“回歸”預測的是。答:離散值|連續(xù)值7.在學習任務的真實邊界比較復雜時,用決策樹解決會相當復雜,此時采用(),可以實現(xiàn)斜劃分甚至更復雜的劃分形式。答:多變量決策樹8.在現(xiàn)實生活中樸素貝葉斯分類器有多種使用方式,若任務數(shù)據(jù)更替頻繁,則可以采用()方式,先不進行任何訓練,待收到預測請求后再根據(jù)當前數(shù)據(jù)進行概率估值答:懶惰學習9.在機器學習中,對高維數(shù)據(jù)進行降維的主要目的是希望找到一個合適的(),在此空間中進行學習能比原始空間性能更好。答:低維空間10.在“單位階躍函數(shù)”(unit-stepfunction)的作用下,若輸入實值z<0,則應將其判定為()(正/反)例。答:反11.再縮放(rescaling)策略的出現(xiàn),主要是為了解決()問題。答:類別不平衡12.一組數(shù)據(jù)類別數(shù)為N,則若該數(shù)據(jù)使用LDA算法降維,降維之后的維數(shù)最多為()維。答:N-113.一般的多層感知器包含哪三種類型層次的神經元(按順序填寫)。答:輸入層|隱含層|輸出層14.一般的,一棵決策樹包含一個(),若干個內部結點和若干個()。答:根結點|葉結點15.要獲得好的集成,個體學習器要有一定的()性和()性答:準確性|多樣性16.樣本的特征數(shù)也稱為(),當維數(shù)非常大時,也就是通常所說的()答:維數(shù)|維數(shù)災難17.訓練誤差較大,測試誤差較大,是指模型出現(xiàn)了()的情況答:欠擬合18.訓練集的誤差稱為,測試集誤差稱為,是除訓練集以外所有樣本誤差。答:訓練/經驗誤差|測試誤差|泛化誤差19.訓練SVM的最小時間復雜度為O(n2),那么()數(shù)據(jù)集不適合用SVM答:大20.學得模型適用于新樣本的能力稱為能力。答:泛化21.信息增益以為基礎。答:信息熵22.寫出一個你知道的線性降維方法:()答:PCA主成分分析|LDA判別分析|MDS多尺度分析23.線性模型(linearmodel)試圖學得一個通過屬性的()_組合來進行預測的函數(shù)。答:線性24.填空:線性降維方法假設從高維空間到低維空間的函數(shù)映射是()的答:線性25.填空:馬氏距離表示數(shù)據(jù)的()距離答:協(xié)方差26.梯度下降法,在使用的時候無非是考慮到兩個方面:一是(),二是()。答:方向|步長27.隨機梯度下降是每次迭代使用()樣本來對參數(shù)進行更新。答:一個28.隨機森林通過()提高性能答:降低方差29.隨機森林的基本思想包括()()答:bagging集成學習理論|boosting集成學習理論30.數(shù)據(jù)降維方法一般分為哪些種類答:線性方法|非線性方法31.是說,若有多個假設與觀察一致,則選擇最簡單的那個答:奧卡姆剃刀32.神經網絡中最基本的成分是()模型答:神經元33.神經網絡模型按照學習方式可分為有導師型和()答:無導師型34.神經網絡模型按照網絡的結構可分為前饋型和()。答:反饋型35.三種常用的替代損失函數(shù)包括hinge損失,損失,損失答:指數(shù)|對率36.任何一個核函數(shù)都隱式地定義了一個稱為“”的特征空間答:再生核希爾伯特空間37.人工神經網絡按性能可分為離散型和()答:連續(xù)型38.批量梯度下降法是指在每一次迭代時使用()樣本來進行梯度的更新。答:所有39.目前的集成學習大致分為兩類:個體學習器間存在強依賴關系,必須串行生成的是(),個體學習器間不存在強依賴關系,可同時生成的是()。答:序列化方法|并行化方法40.邏輯回歸是()學習答:有監(jiān)督41.兩個異類支持向量到超平面的距離之和被稱為“”答:間隔42.連續(xù)屬性在定義域上有()可能的取值,離散屬性在定義域上有()取值。答:無窮多個|有限個43.可以防止出現(xiàn)過擬合對策:、。答:數(shù)據(jù)擴增|正則化|采用驗證集44.可看作學習算法在給定數(shù)據(jù)和參數(shù)空間上的實例化答:學習器45.決策樹學習的關鍵是如何選擇最優(yōu)劃分屬性。一般而言,隨著劃分過程不斷進行,我們希望決策樹的分支結點的()越來越高答:純度46.決策樹ID3算法中每次分支都按照信息增益最大進行的,分支后相比分之前,數(shù)據(jù)集的信息熵變化情況是()_答:變小47.聚類性能度量分為()和()兩類。答:外部指標|內部指標48.聚類將數(shù)據(jù)集中的樣本劃分為()的子集。答:若干個不相交49.糾錯輸出碼(ErrorCorrectingOutputCodes,簡稱ECOC)工作過程中主要分為兩步,一步(),一步解碼。答:編碼50.將原始空間中的向量作為輸入向量,并返回特征空間(轉換后的數(shù)據(jù)空間,可能是高維)中向量的點積的函數(shù)稱為答:核函數(shù)51.剪枝處理分為()和(),前者使得決策樹的很多分支都沒有展開,降低過擬合的風險,但也容易帶來欠擬合的風險,后者使得決策樹完全展開,泛化性能往往優(yōu)于前者,但訓練和測試時間長。答:預剪枝|后剪枝52.假設現(xiàn)在只有兩個類,這種情況下SVM需要訓練幾次?答:153.集成學習中常用的結合策略有(),(),()答:平均法|投票法|學習法54.機器學習的方式可分為、和。答:監(jiān)督學習|半監(jiān)督學習|無監(jiān)督學習55.回歸任務最常用的性能度量是()答:均方誤差56.給定一定數(shù)量的紅細胞、白細胞圖像以及它們對應的標簽,設計出一個紅、白細胞分類器,這屬于學習。答:監(jiān)督57.個體決策樹的構建過程中Bagging使用的是()型決策樹,而隨森林使用的是()型決策樹答:確定|隨機58.高斯混合聚類采用()來表達聚類原型。答:概率模型59.多數(shù)投票法分為()和()答:絕對多數(shù)投票法|相對多數(shù)投票法60.多分類任務進行拆分的最經典的差分策略有:"一對一","一對其余"和"()"。答:多對多61.對數(shù)幾率回歸(logisticregression)雖名為“回歸”,實際上是一種()_學習方法。答:分類62.對函數(shù)dist(.,.),若它是一個距離度量則需要滿足非負性,同一性,對稱性和()四個性質。答:直遞性63.當學習器把訓練樣本學得太好了的時候,很可能已經把訓練樣本自身的一些特點當作了所有潛在樣本都會具有的一般性質,這樣就會導致泛化能力下降。這種現(xiàn)象在機器學習中稱為()。與之相對的(),這是指對訓練樣本的一般性質尚未學好。答:過擬合|欠擬合64.從偏差-方差的角度看,Bagging主要關注降低(),Boosting主要關注降低()答:方差|偏差65.常用核函數(shù)有線性核,多項式核,拉普拉斯核,Sigmoid核,核等。答:高斯66.常見的兩種梯度下降算法()答:批量梯度下降法|隨機梯度下降法67.層次聚類試圖在()對數(shù)據(jù)集進行劃分,從而形成()的聚類結構。答:不同層次|樹形68.標準梯度下降法若誤差曲面存在多個局部最小值,那么標準梯度模型可能找不到()。答:全局最小值69.貝葉斯網亦稱“信念網”,它借助()來刻畫屬性之間的依賴關系答:有向無環(huán)圖70.貝葉斯分類器的訓練,就是從樣本集數(shù)據(jù)中估計出()()答:先驗概率|類條件概率71.P-R曲線的橫坐標代表(),縱坐標代表()答:查全率|查準率72.PCA是一種()監(jiān)督的降維方法答:無73.PCA方法滿足的兩個重要性質是:答:最近重構性|最大可分性74.OvR每次將一個類的樣例作為正例,()_的樣例作為反例。答:其他類75.LDA算法設法將樣例投影到一條直線上,使得()(同類/異類)樣例的投影點盡可能近。答:同類76.k均值算法和LVQ采用()來刻畫聚類結構。答:原型向量77.ID3算法,在決策樹生成過程中,以()為特征選擇的準則。答:信息增益78.DBSCAN是一種著名的()算法,基于一組()參數(shù)來刻畫樣本分布的緊密程度。答:密度聚類|鄰域79.CART算法,在決策樹生成過程中,以()為特征選擇的準則。答:基尼指數(shù)80.C4.5算法,在決策樹生成過程中,以()為特征選擇的準則。答:信息增益率81.C4.5決策樹算法中采用()對連續(xù)屬性進行處理。答:二分法82.Bagging基于自助采樣法,采樣出T個含m個訓練樣本的采樣集,基于每個采樣集訓練出一個基學習器,再將這些基學習器進行簡單結合.在對預測輸出進行結合時,常對分類任務使用(),對回歸任務使用().答:投票法|平均法83.AGNES采用了()的聚合策略來產生層次聚類結構,DIANA則采用()的分拆策略。答:自底向上|自頂向下84.“最小二乘法”(leastsquaremethod)是基于()最小化來進行模型求解。答:均方誤差85.()是決策樹學習算法對付“過擬合”的主要手段。答:剪枝86.()通過構建并結合多個學習器來完成學習任務,有時也被稱為多分類器系統(tǒng)、基于委員會的學習等答:集成學習87.()算法是常用的估計參數(shù)隱變量的利器答:EM88.()是指正確分類的正樣本個數(shù)占真正的正樣本數(shù)的比例答:召回率89.()是指正確分類的正樣本個數(shù)占分類器判定為正樣本的樣本個數(shù)的比例答:精確率90.()是精確率和召回率的調和值答:F191.()是緩解維數(shù)災難的一個重要途徑,即通過某種數(shù)學變換將原始高維屬性空間轉變?yōu)橐粋€低維“子空間”,在這個子空間中樣本密度大幅提高,距離計算也變得更為容易。答:降維92.()可通過對ROC曲線下各部分的面積求和而得到答:AUC簡答題1.主成分分析進行降維的原則是什么?答:主成分分析法的實現(xiàn)就是對樣本集的協(xié)方差矩陣進行特征值分解,取較大特征值對應的特征向量。而它遵循的原則就是:最近重構性和最大可分性。2.在決策樹基本算法中,有哪三種情況會導致遞歸返回?答:1.當前結點包含的樣本全屬于同一類別,無需劃分2.當前屬性集為空,或者是所有樣本在所有屬性上取值相同,無法劃分3.當前結點包含的樣本集合為空,不能劃分3.硬投票分類器和軟投票分類器有什么區(qū)別?答:硬投票分類器只是統(tǒng)計每個分類器的投票,然后挑選出得票最多的類別。軟投票分類器計算出每個類別的平均估算概率,然后選出概率最高的類別。它比硬投票法的表現(xiàn)更優(yōu),因為它給予那些高度自信的投票更高的權重,但是它要求每個分類器都能夠估算出類別概率才可以正常工作。4.為什么要使用交叉驗證,并簡述K-折交叉驗證法。答:交叉驗證用于評估模型的預測性能,可以在一定程度上減少過擬合;K折交叉驗證:數(shù)據(jù)集劃分為K個大小相似的互斥子集,每次用K-1個子集的并集作為訓練集,剩下的為測試集,進行K次訓練、測試,返回這K次的結果均值。5.同質集成與異質集成的區(qū)別?答:同質集成中的個體學習器類型相同,而異質集成中的個體學習器類型不一樣6.隨機森林的訓練效率常優(yōu)于Bagging嗎?為什么?答:隨機森林的訓練效率常優(yōu)于Bagging,因為在個體決策樹的構建過程中,Bagging使用的是“確定型”決策樹,在選擇劃分屬性時要對結點的所有屬性進行考察,而隨機森林使用的“隨機型”決策樹則只需考察一個屬性子集。7.試述機器學習能在互聯(lián)網搜索的哪些環(huán)節(jié)起作用。答:(1)在向搜索引擎提交信息的階段,能夠從提交文本中進行信息提取,進行語義分析;(2)在搜索引擎進行信息匹配的階段,能夠提高問題與各個信息的匹配程度;(3)在向用戶展示搜索結果的階段,能夠根據(jù)用戶對結果感興趣的程度進行排序。8.試分析使用最小訓練誤差作為決策樹劃分選擇準則的缺陷答:若以最小訓練誤差作為決策樹劃分的依據(jù),由于訓練集和真是情況總是會存在一定偏差,這使得這樣得到的決策樹會存在過擬合的情況,對于未知的數(shù)據(jù)的泛化能力較差。因此最小訓練誤差不適合用來作為決策樹劃分的依據(jù)。9.什么是最小二乘法答:基于均方誤差最小化來進行的模型求解的方法叫做“最小二乘法”。在線性回歸中,最小二乘法就是試圖找到一條直線,使所有樣本到直線上的歐氏距離之和最小10.什么是神經網絡的梯度消失問題,為什么會有梯度消失問題?有什么辦法能緩解梯度消失問題?答:在反向傳播算法計算每一層的誤差項的時候,需要乘以本層激活函數(shù)的導數(shù)值,如果導數(shù)值接近于0,則多次乘積之后誤差項會趨向于0,而參數(shù)的梯度值通過誤差項計算,這會導致參數(shù)的梯度值接近于0,無法用梯度下降法來有效的更新參數(shù)的值。改進激活函數(shù),選用更不容易飽和的函數(shù),如ReLU函數(shù)。11.什么是類別不平衡答:指分類任務中不同類別的訓練樣例數(shù)目差別很大的情況12.什么是機器學習?答:1、機器學習是一門人工智能的科學,該領域的主要研究對象是人工智能,特別是如何在經驗學習中改善具體算法的性能。2、機器學習是對能通過經驗自動改進的計算機算法的研究。3、機器學習是用數(shù)據(jù)或以往的經驗,以此優(yōu)化計算機程序的性能標準。13.請你簡要描述一下什么是支持向量機答:支持向量機就是嘗試找到一個最能夠區(qū)分數(shù)據(jù)集的超平面對數(shù)據(jù)進行分類。14.請描述K-means算法的過程。答:首先設置簇的個數(shù)K,初始化各簇的質心,計算每個樣本到各簇的距離,將每個樣本分配到離它最近的簇,更新各簇的質心,不斷迭代,直到達到最大迭代次數(shù)。15.請簡述沒有免費午餐定理(NFL)答:所有問題出現(xiàn)的機會相同(或所有問題同等重要),則對全體問題平均而
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 四川省綿陽市江油市2025-2026學年九年級上學期1月期末數(shù)學試題(含答案)
- 2025~2026學年濟南市槐蔭區(qū)九年級物理第一學期期末考試試題以及答案(含答案)
- 五年級下冊數(shù)學試卷題及答案
- 無領導面試真題及答案
- 文學常識試題及答案
- 22春“電氣工程及其自動化”專業(yè)《控制系統(tǒng)數(shù)字仿真》在線作業(yè)一答案參考6
- 2021年二年級語文上冊期中考試卷(參考答案)
- 22春福建師范大學《學前兒童數(shù)學教育》在線作業(yè)二答案參考3
- 22春“金融學”專業(yè)《個人理財》在線作業(yè)一答案參考7
- 生物招生考試題及答案
- 養(yǎng)老院老人生活設施管理制度
- 2026年稅務稽查崗位考試試題及稽查實操指引含答案
- (2025年)林業(yè)系統(tǒng)事業(yè)單位招聘考試《林業(yè)知識》真題庫與答案
- 2026年七臺河職業(yè)學院高職單招職業(yè)適應性考試備考題庫有答案解析
- 2020海灣消防GST-DJ-N500-GST-DJ-N900 消防設備電源狀態(tài)監(jiān)控器安裝使用說明書
- 河北省滄州市青縣2024-2025學年七年級上學期期末生物試卷
- 淮安市2022-2023學年七年級上學期期末地理試題
- 2024屆高考語文二輪復習專題-文言文閱讀(上海專用)(解析版)
- 2024可打印的離婚協(xié)議書模板
- EPC項目組織架構圖
- 《房顫的藥物治療》課件
評論
0/150
提交評論