版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
2024年春江蘇開放大學機器學習形考作業(yè)二答案注意:學習平臺題目可能是隨機,題目順序與本答案未必一致,同學們在本頁按“Ctrl+F”快捷搜索題目中“關(guān)鍵字”就可以快速定位題目,一定注意答案對應(yīng)的選項,如果答案有疑問或遺漏,請在下載網(wǎng)站聯(lián)系上傳者進行售后。如需其它科目的答案也可以聯(lián)系上傳者。一、2024年春江蘇開放大學機器學習形考作業(yè)二單選題答案1、下列關(guān)于軟投票說法錯誤的是?A、投票表決器可以組合不同的基分類器B、使用概率平均的?式來預(yù)測樣本類別C、可以對每個基分類器設(shè)置權(quán)重,?于對預(yù)測概率求進?加權(quán)平均D、軟投票過程中每個基分類器都預(yù)測?個類別學生答案:D2、下列有關(guān)詞袋表示法的理解有誤的是()A、將每個?本對應(yīng)詞表轉(zhuǎn)化為特征向量B、僅出現(xiàn)在少數(shù)本?的詞匯,?般被標記為停?詞不計?特征向量C、不考慮詞語出現(xiàn)的順序,每個出現(xiàn)過的詞匯單獨作為?列特征D、不重復(fù)的特征詞匯集合為詞表學生答案:B3、蘭德系數(shù)和輪廓系數(shù)都是常?的聚類分析指標,以下對蘭德系數(shù)和輪廓系數(shù)說法錯誤的是A、輪廓系數(shù)適?于實際類別信息未知的情況B、在聚類結(jié)果隨機產(chǎn)?的情況下,蘭德系數(shù)不能保證系數(shù)接近于0、C、蘭德系數(shù)取值為[0,1],越?聚類結(jié)果與真實情況越接近D、調(diào)整蘭德系數(shù)取值范圍為[-1,1],負數(shù)代表結(jié)果不好,越接近于0越好學生答案:D4、箱線圖是檢測離群值的?法,下?關(guān)于箱線圖的說法不正確的是?A、箱線圖中框的上邊線表示上四分位數(shù),框的下邊線表示下四分位數(shù)B、箱外的兩條線(胡須)分別延伸到最?和最??異常點C、四分位距IQR=1.5(Q3-Q1),其中Q3為上四分位數(shù),Q1為下四分位數(shù)D、箱中?于上邊緣和低于下邊緣的值為離群點學生答案:C5、若集成模型中,預(yù)測值表示為,真實值為,則Adaboost的損失函數(shù)(LossFunction)表示為()學生答案:B6、關(guān)于三種常?的穩(wěn)健性回歸?法–Huber回歸、RANSAC回歸和泰爾森回歸,下列選項說法正確的是:A、從回歸的速度上看,?般來說,Huber回歸最快,其次是RANSAC回歸,最慢的是泰爾森回歸B、泰爾森回歸?RANSAC回歸在樣本數(shù)量上的伸縮性(適應(yīng)性)好C、?般情況下,泰爾森回歸可以更好地處理y?向的?值異常點D、Huber回歸可以更好地應(yīng)對X?向的中等??的異常值,但是這個屬性將在?維情況下消失學生答案:A7、下列有關(guān)輪廓系數(shù)的說法錯誤的是()A、所有樣本的輪廓系數(shù)均值為聚類結(jié)果的輪廓系數(shù),是該聚類是否合理、有效的度量B、某個樣本的輪廓系數(shù)近似為0,說明該樣本在兩個簇的邊界上C、某個樣本的輪廓系數(shù)的絕對值接近1,說明該樣本聚類結(jié)果合理D、某個樣本的輪廓系數(shù)接近1,說明該樣本聚類結(jié)果合理學生答案:C8、下列模型中屬于回歸模型的是?A、ID3、B、DBSCANC、線性回歸D、邏輯回歸學生答案:C9、下列有關(guān)ROC曲線與AUC的描述錯誤的是A、ROC曲線越靠近(0,1)證明模型整體預(yù)測能?越差B、AUC的取值為[0.5,1]C、AUC的?何意義為ROC曲線與橫軸FPR之間的?積D、ROC曲線可以?來考察模型的預(yù)測能?學生答案:A10、下列有關(guān)包裹式和嵌?式特征選擇的說法錯誤的是()A、嵌?式特征選擇的思想是根據(jù)模型分析特征的重要性,常?正則化?式來做特征選擇B、包裹式特征選擇的思想是把特征選擇看做?個特征?集搜索問題,篩選各個特征?集,?模型評估各個?集的效果C、Scikit-learn中實現(xiàn)嵌?式特征選擇的類SelectFromModel必須與有feature_importances_或者coef_屬性的模型?起使?,如隨機森林和邏輯回歸D、Scikit-learn中實現(xiàn)嵌?式特征選擇的類有SelectFromModel、RFE和RFECV學生答案:D11、下列有關(guān)特征抽取和特征選擇的說法有誤的?項是()A、特征抽取和特征選擇是達到降維?的的兩種途徑B、PCA和LDA是特征選擇的兩種主要?法C、特征抽取的?標是根據(jù)原始的d個特征的組合形成k個新的特征,即將數(shù)據(jù)從d維空間映射到k維空間D、特征選擇的?標是從原始的d個特征中選擇k個特征學生答案:B12、以下程序語句有誤的是()A、clf=LogisticRegression(penalty=’l1′,random_state=10,solver=’liblinear’)B、clf=LogisticRegression(penalty=’l2′,random_state=10,solver=’liblinear’)C、clf=LogisticRegression(penalty=’l1′,random_state=10,solver=’lbfgs’)D、clf=LogisticRegression(penalty=’l2′,solver=’newton-cg’)學生答案:C13、關(guān)于線性回歸模型的正則化,下列選項敘述不正確的是:A、正則化的常??法為嶺回歸和LASSO,主要區(qū)別在于嶺回歸的?標函數(shù)中添加了L2懲罰函數(shù),?LASSO的?標函數(shù)中添加的是L1懲罰函數(shù)B、正則化可以減?線性回歸的過度擬合和多重共線性等問題C、對?嶺回歸和LASSO,嶺回歸更容易得到稀疏解D、在求解LASSO時,常?的求解算法包括坐標下降法、LARS算法和ISTA算法等學生答案:C14、下列關(guān)于特征選擇?的和原則的說法錯誤的是()A、特征選擇能有效降低特征維度,簡化模型B、與?標特征相關(guān)性?的特征應(yīng)該優(yōu)先被選擇C、?差較?的特征應(yīng)該被剔除D、特征選擇可以有效提升模型性能學生答案:C15、下列有關(guān)過濾式特征選擇的說法錯誤的是()A、過濾式特征選擇的?法是評估單個特征和結(jié)果值之間的相關(guān)程度,留下相關(guān)程度靠前的特征B、過濾式特征選擇的評價指標主要有Pearson相關(guān)系數(shù),互信息,距離相關(guān)度等;其中卡?檢驗(chi2),F(xiàn)檢驗回歸(f_regression),互信息回歸(mutual_info_regression)?于回歸問題,F(xiàn)檢驗分類(f_classif),互信息分類(mutual_info_classif)?于分類問題C、Scikit-learn中實現(xiàn)過濾式特征選擇的SelectKBest類可以指定過濾個數(shù),SelectPercentile類可以指定過濾百分?D、過濾式特征選擇的缺點是只評估了單個特征對結(jié)果的影響,沒有考慮到特征之間的相關(guān)作?,可能剔除有?的相關(guān)特征學生答案:B16、以下四個算法中,哪個不屬于Scikit-learn聚類的主要算法()A、cluster.SpectralClusteringB、neighbors.KNeighborsRegressorC、cluster.KMeansD、cluster.AgglomerativeClustering學生答案:B17、下列有關(guān)DBSCAN聚類算法的理解有誤的?項是()A、對數(shù)據(jù)集中的異常點敏感B、不需要預(yù)先設(shè)置聚類數(shù)量kC、調(diào)參相對于傳統(tǒng)的K-Means之類的聚類算法稍復(fù)雜,需要對距離閾值?,鄰域樣本數(shù)閾值MinPts聯(lián)合調(diào)參,不同的參數(shù)組合對最后的聚類效果有較?影響D、可以對任意形狀的?密度數(shù)據(jù)集進?聚類,相對的,K-Means之類的聚類算法?般只適?于凸數(shù)據(jù)集學生答案:A18、下圖給出了三個節(jié)點的相關(guān)信息,請給出特征A1、A2及A3的特征重要性遞減排序()A、A3>A1>A2B、所給信息不?。C、A2>A3>A1D、A1>A2>A3學生答案:A二、2024年春江蘇開放大學機器學習形考作業(yè)二多選題答案1、下列關(guān)于缺失值處理的說法錯誤的是()A、可以將缺失值作為預(yù)測?標建?模型進?預(yù)測,以此來插補缺失值B、連續(xù)型特征可以使?眾數(shù)來插補缺失值C、根據(jù)經(jīng)驗,可以?動對缺失值進?插補D、離散型特征可以使?平均值來插補缺失值學生答案:B;D2、將連續(xù)型特征離散化后再建?邏輯回歸模型,這樣做對模型有什么影響()A、計算結(jié)果?便存儲,容易擴展。B、起到簡化邏輯回歸模型的作?C、易于模型的快速迭代D、離散化后的特征對異常數(shù)據(jù)敏感學生答案:A;B;C3、下列哪些?法可以解決數(shù)據(jù)集的線性不可分問題()A、?斯核SVMB、多項式核SVMC、軟間隔SVMD、硬間隔SVM學生答案:A;B;C4、以下關(guān)于集成模型中提升法(boosting)與裝袋法(bagging)的?較,說法正確的是()A、Boosting主要?于?于抑制過擬合;?Bagging主要?于優(yōu)化弱分類器。B、Boosting的學習器可并?訓練,?順序;Bagging的學習器需要串?進?,有順序。C、Boosting?般采?整個訓練集訓練學習器;Bagging則采?部分訓練集,沒?到的數(shù)據(jù)可?于測試。D、Adaboost是?種Boosting?法;RandomForest是?種Bagging?法。學生答案:C;D5、下列關(guān)于軟投票說法正確的是?(多選)A、軟投票過程中每個基分類器都預(yù)測?個類別B、可以對每個基分類器設(shè)置權(quán)重,?于對預(yù)測概率求進?加權(quán)平均C、投票表決器可以組合不同的基分類器D、使用概率平均的?式來預(yù)測樣本類別學生答案:B;C;D6、下列有關(guān)scikit-learn中TfidfVectorizer類和CountVectorizer類的說法錯誤的是()A、屬性stop_words:返回停?詞表B、參數(shù)stop_words:設(shè)置停?詞,默認為None(沒有),可設(shè)置為english或list(??給定)C、參數(shù)min_df:設(shè)定閾值,忽略頻率?于此閾值的詞匯,默認為1、D、屬性vocabulary_:返回詞匯表(字典型)學生答案:A;C7、模型輸?的特征通常需要是數(shù)值型的,所以需要將?數(shù)值型特征通過特征編碼轉(zhuǎn)換為數(shù)值特征。下列選項對DataFrame對象df1中的Make字段進?特征編碼,其中正確的是?A、fromsklearn.preprocessingimportLabelEncoderle=LabelEncoder()df1[‘Make’]=le.fit_transform(df1[“Make”])B、df1[‘Make’]=df1[‘Make’].str.replace({‘Toyota’:1,‘Ford’:2,‘Volvo’:3,‘Audi’:4,‘BMW‘:5,‘Nissan’:6})C、df1[‘Make’]=df1[‘Make’].map({‘Toyota’:1,‘Ford’:2,‘Volvo’:3,‘Audi’:4,‘BMW’:5,‘Nissan’:6})D、df1[‘Make’]=df1[‘Make’].replace({‘Toyota’:1,‘Ford’:2,‘Volvo’:3,‘Audi’:4,‘BMW’:5,‘Nissan’:6})學生答案:A;C;D8、關(guān)于sklearn中的KNeighborsClassifier算法類,下列說法正確的是()A、距離度量附屬參數(shù)p可設(shè)置為p=2“euclidean”(歐式距離)、p=1為“manhattan”(曼哈頓距離),默認為2、B、K近鄰算法通過對以樣本a為圓?,半徑為k的圓內(nèi)的訓練樣本進?多數(shù)投票來確定樣本a的類別。C、當樣本分布較亂,預(yù)測效果不好時,可將weights設(shè)置為“distance”,將距離?標更近的近鄰點賦予更?的權(quán)重,來改善預(yù)測效果D、參數(shù)’n_neighbors’的取值應(yīng)該越?越好學生答案:A;C9、現(xiàn)有?個垃圾郵件分類問題,?N個關(guān)鍵詞匯X1,X2,…,XN作為特征,將所有的郵件分類為垃圾郵件C1與正常郵件C2。m1為出現(xiàn)了關(guān)鍵詞匯X1的垃圾郵件數(shù)量,m為垃圾郵件總數(shù),M為所有郵件總數(shù),則下列加?Laplace平滑(平滑系數(shù)為1)的概率公式表示正確的是()學生答案:B;D10、分類正確率、混淆矩陣是評價分類模型效果的重要依據(jù),下列編程語句有錯誤的是()(其中x,y是訓練集和訓練集標簽,分別為DataFrame對象和Series對象)A、語句(4)B、語句(3)C、語句(2)D、語句(1)學生答案:A;B11、下列關(guān)于?本特征抽取中TF-IDF?法理解正確的是()A、TF即詞頻:某詞匯在該?本中出現(xiàn)的頻率B、TF-IDF=TF*IDFC、TF-IDF?法有效過濾掉不常?的詞語D、IDF即逆?本頻率:詞頻的權(quán)重調(diào)整系數(shù)學生答案:A;B;D題型:多選題客觀題分值4分難度:一般得分:012、Scikit-learn中,對函數(shù)metrics.accuracy_score使??法描述正確的是A、fromsklearn.metricsimportaccuracy_scoreprint(accuracy_score(y_test,y_pred,norm
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
- 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年國家電投集團鋁電投資有限公司招聘備考題庫有答案詳解
- 2026年中建四局華南建設(shè)有限公司招聘備考題庫完整答案詳解
- 2026年內(nèi)江高新園區(qū)管理有限責任公司關(guān)于面向社會公開招聘工作人員的備考題庫附答案詳解
- 2026年公辦小學編制教師2名佛山市禪城區(qū)聚錦小學新苗人才招聘備考題庫及參考答案詳解
- 王軍局長談內(nèi)控制度
- 制定醫(yī)院內(nèi)控制度
- 建設(shè)方內(nèi)控制度
- 幼兒園食品內(nèi)控制度
- 救助內(nèi)控制度
- 螃蟹售后內(nèi)控制度
- 危險化學品兼容性矩陣表
- 道路交通法律課件
- 老年人營養(yǎng)不良篩查與營養(yǎng)支持方案
- 搶劫案件偵查課件
- 2025中國企業(yè)軟件出海報告
- 2025年大學《農(nóng)藥化肥-農(nóng)藥殘留檢測》考試模擬試題及答案解析
- DB14T2163-2020 《信息化項目軟件運維費用測算指南》
- 二氧化碳爆破施工技術(shù)方案
- 安全生產(chǎn)工作成效總結(jié)
- 16《我的叔叔于勒》公開課一等獎創(chuàng)新教學設(shè)計
- 骨科備皮課件
評論
0/150
提交評論