版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
機(jī)器學(xué)習(xí)知到智慧樹期末考試答案題庫(kù)2025年同濟(jì)大學(xué)集成學(xué)習(xí)中個(gè)體學(xué)習(xí)器的多樣性不宜高,否則容易顧此失彼,降低系統(tǒng)的總體性能。()
答案:錯(cuò)集成學(xué)習(xí)中個(gè)體學(xué)習(xí)器多樣性增強(qiáng)的主要途徑有:()
答案:數(shù)據(jù)樣本擾動(dòng);輸入屬性擾動(dòng);輸出表示擾動(dòng);算法參數(shù)擾動(dòng)邏輯回歸將輸出概率限定在[0,1]之間。下列哪個(gè)函數(shù)起到這樣的作用?()
答案:Sigmoid函數(shù)邏輯回歸LR是參數(shù)模型,支持向量機(jī)SVM是非參數(shù)模型。()
答案:對(duì)邏輯回歸LR是參數(shù)模型,支持向量機(jī)SVM也是參數(shù)模型。()
答案:錯(cuò)選項(xiàng)中說法錯(cuò)誤的是?()
答案:沿負(fù)梯度的方向一定是最優(yōu)的方向選項(xiàng)中哪種方法可以用來減小過擬合?()
答案:更多的訓(xùn)練數(shù)據(jù);L1正則化;L2正則化;減小模型的復(fù)雜度選項(xiàng)中哪些方法不可以直接來對(duì)文本分類?()
答案:K-Means選項(xiàng)中哪些假設(shè)是我們推導(dǎo)線性回歸參數(shù)時(shí)遵循的?()
答案:X與Y有線性關(guān)系(多項(xiàng)式關(guān)系);模型誤差在統(tǒng)計(jì)學(xué)上是獨(dú)立的;誤差一般服從0均值和固定標(biāo)準(zhǔn)差的正態(tài)分布;X是非隨機(jī)且測(cè)量沒有誤差的選項(xiàng)中關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?()
答案:殘差均值總是為零選項(xiàng)中關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說法正確的是()
答案:MLE可能并不存在;如果MLE存在,那么它的解可能不是唯一的選項(xiàng)中關(guān)于RandomForest和GradientBoostingTrees說法正確的是?()
答案:兩者都使用隨機(jī)特征子集來創(chuàng)建中間樹輸出變量為有限個(gè)離散變量的預(yù)測(cè)問題是回歸問題;輸出變量為連續(xù)變量的預(yù)測(cè)問題是分類問題。()
答案:錯(cuò)評(píng)估完模型之后,發(fā)現(xiàn)模型存在高偏差(highbias),應(yīng)該如何解決?()
答案:增加模型的特征數(shù)量訓(xùn)練樣本稍加變化就可能導(dǎo)致學(xué)習(xí)器有顯著變動(dòng),這樣的基學(xué)習(xí)器稱為“不穩(wěn)定基學(xué)習(xí)器”。下列學(xué)習(xí)器屬于不穩(wěn)定基學(xué)習(xí)器的是:()
答案:決策樹;神經(jīng)網(wǎng)絡(luò)給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,另一半用于測(cè)試,則訓(xùn)練誤差和測(cè)試誤差之間的差別會(huì)隨著n的增加而減小。()
答案:對(duì)線性回歸能完成的任務(wù)是()
答案:預(yù)測(cè)連續(xù)值監(jiān)督式學(xué)習(xí)中存在過擬合,而對(duì)于非監(jiān)督式學(xué)習(xí)來說,沒有過擬合。()
答案:錯(cuò)點(diǎn)擊率預(yù)測(cè)是一個(gè)正負(fù)樣本不平衡問題(例如99%的沒有點(diǎn)擊,只有1%點(diǎn)擊)。假如在這個(gè)非平衡的數(shù)據(jù)集上建立一個(gè)模型,得到訓(xùn)練樣本的正確率是99%,則下列說法正確的是?()
答案:模型正確率并不高,應(yīng)該建立更好的模型深度神經(jīng)網(wǎng)絡(luò)中常用Relu函數(shù)作為激活函數(shù),其好處是:()
答案:收斂快;求梯度簡(jiǎn)單;具有稀疏特性模型的bias很高,我們?nèi)绾谓档退?()
答案:在特征空間中增加特征梯度爆炸問題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過大而損失函數(shù)變?yōu)闊o窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問題?()
答案:梯度裁剪機(jī)器學(xué)習(xí)訓(xùn)練時(shí),Mini-Batch的大小優(yōu)選為2個(gè)的冪,如256或512。它背后的原因是什么?()
答案:Mini-Batch設(shè)為2的冪,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處理機(jī)器學(xué)習(xí)時(shí),我們通常假設(shè)樣本空間中的全體樣本都服從某個(gè)未知"分布",并且我們獲得的每個(gè)樣本都是獨(dú)立地從這個(gè)分布上采樣獲得的。()
答案:對(duì)機(jī)器學(xué)習(xí)學(xué)得的模型適用于新樣本的能力,稱為"泛化"能力,這是針對(duì)分類和回歸等監(jiān)督學(xué)習(xí)任務(wù)而言的,與聚類這樣的無監(jiān)督學(xué)習(xí)任務(wù)無關(guān)。()
答案:錯(cuò)樸素貝葉斯屬于生成式模型,而SVM和決策樹屬于判別式模型。()
答案:對(duì)樸素貝葉斯屬于生成式模型,SVM和決策樹也屬于生成式模型。()
答案:錯(cuò)樸素貝葉斯分類器沒有屬性條件獨(dú)立的假設(shè)前提。()
答案:錯(cuò)樸素貝葉斯分類器有屬性條件獨(dú)立的假設(shè)前提。()
答案:對(duì)樸素貝葉斯分類器是一種特殊的Bayes分類器,特征變量是X,類別標(biāo)簽是C,它的一個(gè)假定是:()
答案:以0為均值,sqr(2)/2為標(biāo)準(zhǔn)差的正態(tài)分布有一些基學(xué)習(xí)器對(duì)數(shù)據(jù)樣本的擾動(dòng)不敏感,稱為穩(wěn)定基學(xué)習(xí)器。下列學(xué)習(xí)器屬于穩(wěn)定基學(xué)習(xí)器的是:()
答案:線性學(xué)習(xí)器;樸素貝葉斯;支持向量機(jī);k近鄰學(xué)習(xí)器有N個(gè)樣本,一半用于訓(xùn)練,一半用于測(cè)試。若增大N值,則訓(xùn)練誤差和測(cè)試誤差之間的差距會(huì)如何變化?()
答案:減小智能化中醫(yī)望診時(shí),對(duì)一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:將整幅圖的每個(gè)象素的屬性記錄在一張數(shù)據(jù)表中,然后用某種方法將這些數(shù)據(jù)按它們的自然分布狀況劃分成兩類。因此每個(gè)象素就分別得到相應(yīng)的類別號(hào),從而實(shí)現(xiàn)了舌頭圖像的分割。那么這種方法屬于:()
答案:非監(jiān)督學(xué)習(xí)智能化中醫(yī)望診時(shí),對(duì)一幅舌脈圖像(伸出舌頭的人臉圖像),希望把舌頭部分從人臉的其他部分劃分出來,可以采用以下方法:在該圖像中分別在舌頭區(qū)域與其他區(qū)域各畫出一個(gè)窗口,把在這兩個(gè)窗口中的象素?cái)?shù)據(jù)作為訓(xùn)練集,用Fisher準(zhǔn)則方法求得分類器參數(shù),再用該分類器對(duì)整幅圖進(jìn)行分類。那么這種方法屬于:()
答案:監(jiān)督學(xué)習(xí)數(shù)據(jù)集D的純度可用它的基尼值來度量,基尼值越小,則數(shù)據(jù)集D的純度越高。()
答案:對(duì)數(shù)據(jù)集D的純度可用它的基尼值來度量,基尼值越大,則數(shù)據(jù)集D的純度越高。()
答案:錯(cuò)數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說法正確的是?()
答案:基本模型之間相關(guān)性低數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為“集成學(xué)習(xí)”)結(jié)合起來,以獲得比所有個(gè)體模型都更好的更健壯的輸出。下列選項(xiàng)中說法正確的是?()
答案:基本模型之間相關(guān)性低支持向量機(jī)SVM是結(jié)構(gòu)風(fēng)險(xiǎn)最小化模型,而邏輯回歸LR是經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化模型。()
答案:對(duì)支持向量機(jī)SVM是結(jié)構(gòu)風(fēng)險(xiǎn)最小化模型,而邏輯回歸LR是經(jīng)驗(yàn)風(fēng)險(xiǎn)最大化模型。()
答案:錯(cuò)我們想要訓(xùn)練一個(gè)ML模型,樣本數(shù)量有100萬個(gè),特征維度是5000,面對(duì)如此大數(shù)據(jù),如何有效地訓(xùn)練模型?()
答案:對(duì)訓(xùn)練集隨機(jī)采樣,在隨機(jī)采樣的數(shù)據(jù)上建立模型;嘗試使用在線機(jī)器學(xué)習(xí)算法;使用PCA算法減少特征維度我們想在大數(shù)據(jù)集上訓(xùn)練決策樹,為了使用較少時(shí)間,我們可以()
答案:減少樹的深度我們希望減少數(shù)據(jù)集中的特征數(shù)量。你可以采取以下哪一個(gè)步驟來減少特征?()
答案:使用正向選擇法(ForwardSelection);使用反向消除法(BackwardElimination);逐步選擇消除法(Stepwise);計(jì)算不同特征之間的相關(guān)系數(shù),刪去相關(guān)系數(shù)高的特征之一影響聚類算法結(jié)果的主要因素有()。
答案:分類準(zhǔn)則;;特征選??;;模式相似性測(cè)度。歸納學(xué)習(xí)相當(dāng)于"從樣例中學(xué)習(xí)",即從訓(xùn)練樣例中歸納出學(xué)習(xí)結(jié)果。()
答案:對(duì)建立線性模型時(shí),我們看變量之間的相關(guān)性。在尋找相關(guān)矩陣中的相關(guān)系數(shù)時(shí),如果發(fā)現(xiàn)3對(duì)變量(Var1和Var2、Var2和Var3、Var3和Var1)之間的相關(guān)性分別為-0.98、0.45和1.23。我們能從中推斷出什么呢?()
答案:Var1和Var2具有很高的相關(guān)性;Var1和Var2存在多重共線性,模型可以去掉其中一個(gè)特征;Var3和Var1相關(guān)系數(shù)為1.23是不可能的已知坐標(biāo)系中兩點(diǎn)A(2,?2)和B(?1,2),這兩點(diǎn)的曼哈頓距離(L1距離)是()
答案:7小明參加Kaggle某項(xiàng)大數(shù)據(jù)競(jìng)賽,他的成績(jī)?cè)诖筚惻判邪裆显揪佑谇?0,后來他保持特征不變,對(duì)原來的模型做了1天的調(diào)參,將自己的模型在自己本地測(cè)試集上的準(zhǔn)確率提升了3%,然后他信心滿滿地將新模型的預(yù)測(cè)結(jié)果更新到了大賽官網(wǎng)上,結(jié)果懊惱地發(fā)現(xiàn)自己的新模型在大賽官方的測(cè)試集上準(zhǔn)確率反而下降了。對(duì)此,他的朋友們展開了討論,下列說法正確的是()
答案:小明這個(gè)有可能是由于過擬合導(dǎo)致的;小明可以考慮一下,使用交叉驗(yàn)證來驗(yàn)證一下是否發(fā)生了過擬合將垃圾郵件檢測(cè)的問題列為下面哪一類學(xué)習(xí)問題最合適?()
答案:監(jiān)督學(xué)習(xí)對(duì)回歸問題和分類問題的評(píng)價(jià)最常用的指標(biāo)都是準(zhǔn)確率和召回率。()
答案:錯(cuò)對(duì)于劃分屬性選擇,選項(xiàng)中說法正確的是()
答案:信息增益準(zhǔn)則對(duì)可取值數(shù)目較多的屬性有所偏好;增益率準(zhǔn)則對(duì)可取值數(shù)目較少的屬性有所偏好;C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再?gòu)闹羞x擇增益率最高的。對(duì)于劃分屬性選擇,以下說法正確的是()
答案:信息增益準(zhǔn)則對(duì)可取值數(shù)目較多的屬性有所偏好;增益率準(zhǔn)則對(duì)可取值數(shù)目較少的屬性有所偏好;C4.5算法并不是直接選擇增益率最大的候選劃分屬性,而是先從候選劃分屬性中找出信息增益高于平均水平的屬性,再?gòu)闹羞x擇增益率最高的。對(duì)于k折交叉驗(yàn)證,以下對(duì)k的說法正確的是()
答案:k越大,不一定越好,選擇大的k會(huì)加大評(píng)估時(shí)間;選擇更大的k,就會(huì)有更小的bias(因?yàn)橛?xùn)練集更加接近總數(shù)據(jù)集);在選擇k時(shí),要最小化數(shù)據(jù)集之間的方差對(duì)于PCA處理后的特征,其樸素貝葉斯特征相互獨(dú)立的假設(shè)一定成立,因?yàn)樗兄鞒煞侄际钦坏?,所以不相關(guān)。()
答案:錯(cuò)如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能劣于經(jīng)典回歸方法。()
答案:錯(cuò)如果自變量X和因變量Y之間存在高度的非線性和復(fù)雜關(guān)系,那么樹模型很可能優(yōu)于經(jīng)典回歸方法。()
答案:對(duì)如果用“三個(gè)臭皮匠頂個(gè)諸葛亮”來比喻集成學(xué)習(xí)的話,那么對(duì)三個(gè)臭皮匠的要求可能是:()
答案:三個(gè)臭皮匠不能太差,每個(gè)人考試都能及格;三個(gè)臭皮匠的優(yōu)點(diǎn)各不相同如果用“三個(gè)臭皮匠頂個(gè)諸葛亮”來比喻集成學(xué)習(xí),那么下列選項(xiàng)中哪些可能符合對(duì)三個(gè)臭皮匠的要求?()
答案:三個(gè)臭皮匠不能太差,每個(gè)人考試都能及格;三個(gè)臭皮匠的優(yōu)點(diǎn)各不相同如果我們說“線性回歸”模型完美地?cái)M合了訓(xùn)練樣本(訓(xùn)練樣本誤差為零),則下面哪個(gè)說法是正確的?()
答案:選項(xiàng)中的答案都不對(duì)如果使用線性回歸模型,下列說法正確的是?()
答案:檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感如果兩個(gè)變量相關(guān),那么它們一定是線性關(guān)系嗎?()
答案:不一定如果一個(gè)經(jīng)過訓(xùn)練的機(jī)器學(xué)習(xí)模型在測(cè)試集上達(dá)到100%的準(zhǔn)確率,這就意味著該模型將在另外一個(gè)新的測(cè)試集上也能得到100%的準(zhǔn)確率。()
答案:錯(cuò)如果SVM模型欠擬合,以下方法哪些可以改進(jìn)模型()
答案:增大懲罰參數(shù)C的值如何在監(jiān)督式學(xué)習(xí)中使用聚類算法?()
答案:首先,可以創(chuàng)建聚類,然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法;在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類別ID作為特征空間中的一個(gè)額外的特征增加卷積核的尺寸,一定能提高卷積神經(jīng)網(wǎng)絡(luò)的性能。()
答案:錯(cuò)在訓(xùn)練完SVM之后,我們可以只保留支持向量,而舍去所有非支持向量,仍然不會(huì)影響模型分類能力。()
答案:對(duì)在模型中增加更多特征一般會(huì)增加訓(xùn)練樣本的準(zhǔn)確率,減小bias,但是測(cè)試樣本準(zhǔn)確率不一定增加。()
答案:對(duì)在數(shù)據(jù)預(yù)處理階段,我們常常對(duì)數(shù)值特征進(jìn)行歸一化或標(biāo)準(zhǔn)化(standardization,normalization)處理。這種處理方式理論上不會(huì)對(duì)下列哪個(gè)模型產(chǎn)生很大影響?()
答案:決策樹在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),樸素貝葉斯分類器的分類效率比不上決策樹模型。()
答案:對(duì)在實(shí)際應(yīng)用中,由于各屬性之間完全獨(dú)立的很少,因此采用樸素貝葉斯分類器比半樸素貝葉斯分類器更合適。()
答案:錯(cuò)在回歸模型中,下列哪一項(xiàng)在權(quán)衡欠擬合(under-fitting)和過擬合(over-fitting)中影響最大?()
答案:多項(xiàng)式階數(shù)在分類問題中,我們經(jīng)常會(huì)遇到正負(fù)樣本數(shù)據(jù)量不等的情況,比如正樣本為10萬條數(shù)據(jù),負(fù)樣本只有1萬條數(shù)據(jù),以下合適的處理方法是()
答案:將負(fù)樣本每個(gè)權(quán)重設(shè)置為10,正樣本權(quán)重為1,參與訓(xùn)練過程;將負(fù)樣本重復(fù)10次,生成10萬樣本量,打亂順序參與分類;從10萬正樣本中隨機(jī)抽取1萬參與分類在決策樹的劃分屬性選擇中,信息增益準(zhǔn)則對(duì)可取值數(shù)目較少的屬性有所偏好,而增益率準(zhǔn)則對(duì)可取值數(shù)目較多的屬性有所偏好。()
答案:錯(cuò)在決策樹學(xué)習(xí)過程中,用屬性α對(duì)樣本集D進(jìn)行劃分所獲得的"信息增益"越大,則意味著使用屬性α來進(jìn)行劃分所獲得的"純度提升"越小。()
答案:錯(cuò)在決策樹學(xué)習(xí)過程中,用屬性α對(duì)樣本集D進(jìn)行劃分所獲得的"信息增益"越大,則意味著使用屬性α來進(jìn)行劃分所獲得的"純度提升"越大。()
答案:對(duì)在決策樹學(xué)習(xí)過程中,如果當(dāng)前結(jié)點(diǎn)劃分屬性為連續(xù)屬性,那么該屬性還可作為其后代結(jié)點(diǎn)的劃分屬性。()
答案:對(duì)在決策樹分割結(jié)點(diǎn)的時(shí)候,下列關(guān)于信息增益說法正確的是()
答案:信息增益可以用”1比特-熵”獲得;如果選擇一個(gè)屬性具有許多特征值,那么這個(gè)信息增益是有偏差的在n維空間中(n>1),下列哪種方法最適合用來檢測(cè)異常值?()
答案:馬氏距離回歸問題和分類問題都有可能發(fā)生過擬合。()
答案:對(duì)回歸和分類都是有監(jiān)督學(xué)習(xí)問題。()
答案:對(duì)向量x=[1,2,3,4,-9,0]的L1范數(shù)是()
答案:19后剪枝決策樹通常比預(yù)剪枝決策樹保留了更多的分支。一般情形下,后剪枝決策樹的欠擬合風(fēng)險(xiǎn)很小,泛化性能往往優(yōu)于預(yù)剪枝決策樹。()
答案:對(duì)變量選擇是用來選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?()
答案:特征是否攜帶有效信息;交叉驗(yàn)證;多個(gè)變量是否有相同的功能加入使用邏輯回歸對(duì)樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測(cè)試樣本的準(zhǔn)確率?,F(xiàn)在,在數(shù)據(jù)中增加一個(gè)新的特征,其它特征保持不變。然后重新訓(xùn)練測(cè)試。選項(xiàng)中說法正確的是?()
答案:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變加入使用邏輯回歸對(duì)樣本進(jìn)行分類,得到訓(xùn)練樣本的準(zhǔn)確率和測(cè)試樣本的準(zhǔn)確率?,F(xiàn)在,在數(shù)據(jù)中增加一個(gè)新的特征,其它特征保持不變。然后重新訓(xùn)練測(cè)試。則下列說法正確的是?()
答案:訓(xùn)練樣本準(zhǔn)確率一定增加或保持不變剪枝(pruning)是決策樹學(xué)習(xí)算法對(duì)付"欠擬合"的主要手段,其基本策略有"預(yù)剪枝"(pre-pruning)和"后剪枝"(post-pruning)。()
答案:錯(cuò)決策樹的分界面是線性的。()
答案:錯(cuò)關(guān)于貝葉斯網(wǎng)絡(luò),選項(xiàng)中說法正確的是:()
答案:貝葉斯網(wǎng)絡(luò)是有向無環(huán)圖模型;貝葉斯網(wǎng)絡(luò)又稱信念網(wǎng)絡(luò);貝葉斯網(wǎng)絡(luò)是一種概率圖模型關(guān)于貝葉斯網(wǎng)絡(luò),以下說法正確的是:()
答案:貝葉斯網(wǎng)絡(luò)是有向無環(huán)圖模型;貝葉斯網(wǎng)絡(luò)又稱信念網(wǎng)絡(luò);貝葉斯網(wǎng)絡(luò)是一種概率圖模型關(guān)于神經(jīng)網(wǎng)絡(luò),下列說法正確的是?()
答案:增加網(wǎng)絡(luò)層數(shù),可能會(huì)增加測(cè)試集分類錯(cuò)誤率;減少網(wǎng)絡(luò)層數(shù),可能會(huì)減少測(cè)試集分類錯(cuò)誤率關(guān)于特征選擇,下列對(duì)Ridge回歸和Lasso回歸說法正確的是?()
答案:Lasso回歸適用于特征選擇關(guān)于欠擬合(under-fitting),下面哪個(gè)說法是正確的?()
答案:訓(xùn)練誤差較大,測(cè)試誤差較大關(guān)于SVM如何選用核函數(shù),下列說法正確的是:()
答案:線性核主要用于線性可分以及樣本數(shù)與特征數(shù)差不多的情況;非線性核主要用于線性不可分以及特征數(shù)較少樣本量一般的情況;高斯核和tanh核都屬于非線性核,而且高斯核還可以把原始維度映射到無窮多維關(guān)于SVM與感知機(jī),選項(xiàng)中說法正確的是:()
答案:都是用于分類的監(jiān)督學(xué)習(xí)算法;損失函數(shù)方面,感知機(jī)采用的是誤分類,易造成過擬合,而SVM采用間隔最大化(合頁損失函數(shù)),一定程度上可避免過擬合;優(yōu)化方法方面,感知機(jī)采用梯度下降法,而SVM采用不等式約束結(jié)合拉格朗日乘子;感知機(jī)只用于線性分類,SVM可用于線性和非線性分類關(guān)于SVM與感知機(jī),以下說法正確的是:()
答案:都是用于分類的監(jiān)督學(xué)習(xí)算法;損失函數(shù)方面,感知機(jī)采用的是誤分類,易造成過擬合,而SVM采用間隔最大化(合頁損失函數(shù)),一定程度上可避免過擬合;優(yōu)化方法方面,感知機(jī)采用梯度下降法,而SVM采用不等式約束結(jié)合拉格朗日乘子;感知機(jī)只用于線性分類,SVM可用于線性和非線性分類關(guān)于L1正則和L2正則下面的說法正確的是()
答案:L2正則化表示各個(gè)參數(shù)的平方和的開方值;L1范數(shù)會(huì)使權(quán)值稀疏關(guān)于“回歸(Regression)”和“相關(guān)(Correlation)”,下列說法正確的是?注意:x是自變量,y是因變量。()
答案:回歸在x和y之間是非對(duì)稱的,相關(guān)在x和y之間是互為對(duì)稱的關(guān)于L1、L2正則化下列說法正確的是?()
答案:L1正則化得到的解更加稀疏假設(shè)某地區(qū)流行病識(shí)別中,正常(w1)和異常(w2)兩類的先驗(yàn)概率分別為:正常狀態(tài):P(w1)=0.9異常狀態(tài):P(w1)=0.1現(xiàn)有一待識(shí)別個(gè)例,其觀察值為x,從類條件概率密度分布曲線上可查得:p(x|w1)=0.2,p(x|w2)=0.4那么該個(gè)例的狀態(tài)是()
答案:正常狀態(tài)假設(shè)我們使用原始的非線性可分版本的Soft-SVM優(yōu)化目標(biāo)函數(shù)。我們需要做什么來保證得到的模型是線性可分離的?()
答案:C正無窮大假定你在神經(jīng)網(wǎng)絡(luò)中的隱藏層中使用激活函數(shù)X。在特定神經(jīng)元給定任意輸入,你會(huì)得到輸出-0.01。X可能是以下哪一個(gè)激活函數(shù)?()
答案:tanh假如使用一個(gè)較復(fù)雜的回歸模型來擬合樣本數(shù)據(jù),使用Ridge回歸,調(diào)試正則化參數(shù)λ,來降低模型復(fù)雜度。若λ較小時(shí),關(guān)于偏差(bias)和方差(variance),下列說法正確的是?()
答案:若λ較小時(shí),偏差減小,方差增大以下方法或系統(tǒng)屬于"符號(hào)主義"(symbolism)學(xué)習(xí)技術(shù)的是()
答案:"結(jié)構(gòu)學(xué)習(xí)系統(tǒng)";"基于邏輯的歸納學(xué)習(xí)系統(tǒng)“;"概念學(xué)習(xí)系統(tǒng)"以下方法或技術(shù)屬于統(tǒng)計(jì)學(xué)習(xí)范疇的是()
答案:支持向量機(jī);核方法以下方法屬于集成學(xué)習(xí)方法的是()
答案:bagging;stacking;boosting以下描述中,對(duì)梯度解釋正確的是()
答案:梯度是一個(gè)向量,有方向有大?。磺筇荻染褪菍?duì)梯度向量的各個(gè)元素求偏導(dǎo)以下哪種方法屬于判別式模型(discriminativemodel)?()
答案:線性判別分析LDA;支持向量機(jī)以下哪些方法不可以直接來對(duì)文本分類?()
答案:K-Means從歸納偏好一般性原則的角度看,"奧卡姆剃刀"(Occam'srazor)準(zhǔn)則與“大道至簡(jiǎn)”說的是相同的道理。()
答案:對(duì)從分類的角度講,用主成分分析PCA做特征提取主要利用了PCA的什么性質(zhì):()。
答案:變換產(chǎn)生的新分量正交或不相關(guān);;使變換后的矢量能量更趨集中;為了觀察測(cè)試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列哪種圖形比較適合?()
答案:散點(diǎn)圖下面哪個(gè)情形不適合作為K-Means迭代終止的條件?()
答案:前后兩次迭代中,每個(gè)聚類中樣本的個(gè)數(shù)不變下面關(guān)于RandomForest和GradientBoostingTrees說法正確的是?()
答案:兩者都使用隨機(jī)特征子集來創(chuàng)建中間樹下列聚類方法屬于原型聚類的是()
答案:K-Means算法;學(xué)習(xí)向量量化LVQ;高斯混合聚類下列方法中,可以用于特征降維的方法包括?()
答案:主成分分析PCA;線性判別分析LDA;AutoEncoder;矩陣奇異值分解SVD下列哪種方法可以用來減小過擬合?()
答案:更多的訓(xùn)練數(shù)據(jù);L1正則化;L2正則化;減小模型的復(fù)雜度下列哪些算法可以用來夠造神經(jīng)網(wǎng)絡(luò)?()
答案:線性回歸;邏輯回歸下列哪些假設(shè)是我們推導(dǎo)線性回歸參數(shù)時(shí)遵循的?()
答案:X與Y有線性關(guān)系(多項(xiàng)式關(guān)系);模型誤差在統(tǒng)計(jì)學(xué)上是獨(dú)立的;誤差一般服從0均值和固定標(biāo)準(zhǔn)差的正態(tài)分布;X是非隨機(jī)且測(cè)量沒有誤差的下列哪一種方法的系數(shù)沒有閉式(closed-form)解?()
答案:Lasso下列關(guān)于線性回歸分析中的殘差(Residuals)說法正確的是?()
答案:殘差均值總是為零下列關(guān)于極大似然估計(jì)(MaximumLikelihoodEstimate,MLE),說法正確的是()
答案:MLE可能并不存在;如果MLE存在,那么它的解可能不是唯一的下列關(guān)于PCA說法正確的是?()
答案:在使用PCA之前,我們必須標(biāo)準(zhǔn)化數(shù)據(jù);應(yīng)該選擇具有最大方差的主成分;可以使用PCA在低維空間中可視化數(shù)據(jù)下列關(guān)于bootstrap說法正確的是?()
答案:從總的N個(gè)樣本中,有放回地抽取n個(gè)樣本(n<N)一般來
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026浙江嘉興市嘉善縣江南幼兒園食堂從業(yè)人員招聘1人筆試備考試題及答案解析
- 2026年洛陽欒川公益崗招聘120人筆試參考題庫(kù)及答案解析
- 2026新疆雙河新賽生物蛋白科技有限公司招聘1人筆試參考題庫(kù)及答案解析
- 雅安經(jīng)濟(jì)技術(shù)開發(fā)區(qū)公開招聘匯達(dá)服務(wù)公司副總經(jīng)理考試備考試題及答案解析
- 2026上半年貴州事業(yè)單位聯(lián)考省文學(xué)藝術(shù)界聯(lián)合會(huì)所屬事業(yè)單位招聘4人考試參考題庫(kù)及答案解析
- 2026年中材科技(酒泉)風(fēng)電葉片有限公司招聘44人筆試模擬試題及答案解析
- 2026年寧德周寧縣消防救援大隊(duì)專職消防員招聘1人筆試備考題庫(kù)及答案解析
- 2026山東濟(jì)南中國(guó)十九冶集團(tuán)有限公司招聘筆試參考題庫(kù)及答案解析
- 2026年淮南高新區(qū)中心幼兒園面向社會(huì)公開招聘服務(wù)崗位教師14名考試備考試題及答案解析
- 2026年房地產(chǎn)市場(chǎng)分析工具與技巧
- 江蘇省連云港市2024-2025學(xué)年第一學(xué)期期末調(diào)研考試高二歷史試題
- 生成式人工智能與初中歷史校本教研模式的融合與創(chuàng)新教學(xué)研究課題報(bào)告
- 2025年湖北煙草專賣局筆試試題及答案
- 文化館安全生產(chǎn)制度
- (2025年)保安員(初級(jí))證考試題庫(kù)及答案
- 2026年浙江省軍士轉(zhuǎn)業(yè)崗位履職能力考點(diǎn)練習(xí)題及答案
- 2026年檢察院書記員面試題及答案
- 安全設(shè)備設(shè)施安裝、使用、檢驗(yàn)、維修、改造、驗(yàn)收、報(bào)廢管理制度
- JJF(機(jī)械) 1064-2021 運(yùn)動(dòng)場(chǎng)地材料沖擊吸收和垂直變形試驗(yàn)機(jī)校準(zhǔn)規(guī)范
- PPAP全尺寸檢測(cè)報(bào)告
- 化工工藝安全與風(fēng)險(xiǎn)評(píng)估
評(píng)論
0/150
提交評(píng)論