12月人工智能測(cè)試題含答案_第1頁(yè)
12月人工智能測(cè)試題含答案_第2頁(yè)
12月人工智能測(cè)試題含答案_第3頁(yè)
12月人工智能測(cè)試題含答案_第4頁(yè)
12月人工智能測(cè)試題含答案_第5頁(yè)
已閱讀5頁(yè),還剩11頁(yè)未讀 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

12月人工智能測(cè)試題含答案一、單選題(共50題,每題1分,共50分)1.試題:Map階段的輸入是以()形式的行數(shù)據(jù)。A、鍵值對(duì)B、行列式C、鏈表D、字符正確答案:【A】解析:Map階段是MapReduce中的一個(gè)階段,其輸入是以鍵值對(duì)的形式呈現(xiàn)的,這是MapReduce模型的基本輸入格式。2.試題:在自動(dòng)定理證明研究方面在國(guó)際上有影響的我國(guó)知名科學(xué)家是:A、錢學(xué)森B、華羅庚C、宋健D、吳文俊正確答案:【D】解析:吳文俊在自動(dòng)定理證明研究方面取得了卓越成就,在國(guó)際上有重大影響。他提出的數(shù)學(xué)機(jī)械化方法,為自動(dòng)推理和數(shù)學(xué)定理機(jī)器證明提供了有效的理論和方法,推動(dòng)了相關(guān)領(lǐng)域的發(fā)展。3.試題:已知x=3,那么執(zhí)行語句x*=6之后,x的值為_________。A、3B、$2C、18D、9正確答案:【C】4.試題:ImageNet大賽是計(jì)算機(jī)視覺領(lǐng)域非常重要的大賽,從ImageNet大賽中走出來的著名網(wǎng)絡(luò)結(jié)構(gòu)有:①.AlexNet②.VGG③.GoogLeNet④.RestNetA、①②④B、①③④C、①③④D、①②③④正確答案:【D】解析:①AlexNet是首屆ImageNet圖像識(shí)別挑戰(zhàn)賽冠軍所屬的網(wǎng)絡(luò)結(jié)構(gòu)。②VGG在ImageNet競(jìng)賽中取得了優(yōu)異成績(jī)。③GoogLeNet是ImageNet2014挑戰(zhàn)賽的冠軍網(wǎng)絡(luò)。④ResNet在ImageNet大賽中也表現(xiàn)出色。所以從ImageNet大賽中走出來的著名網(wǎng)絡(luò)結(jié)構(gòu)有AlexNet、VGG、GoogLeNet、ResNet,答案是①②③④,選B。5.試題:回歸算法預(yù)測(cè)的標(biāo)簽是?A、應(yīng)變型B、連續(xù)型C、自變型D、離散型正確答案:【B】解析:回歸算法的目標(biāo)是預(yù)測(cè)一個(gè)連續(xù)的值,比如預(yù)測(cè)房?jī)r(jià)、股票價(jià)格等具體的數(shù)值,而不是離散的類別或其他類型。所以回歸算法預(yù)測(cè)的標(biāo)簽是連續(xù)型。6.試題:K折法是下列哪個(gè)函數(shù)?A、RepeatedKFoldB、LeaveOneOutC、KFold正確答案:【C】7.試題:神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,一般會(huì)遇到停滯期,即神經(jīng)網(wǎng)絡(luò)在進(jìn)入全局最小值之前陷入局部最小值。以下哪個(gè)策略可以避免上述情況?A、改變幾個(gè)時(shí)期的學(xué)習(xí)率B、減少參數(shù)數(shù)量C、增加參數(shù)數(shù)量D、在開始時(shí)將學(xué)習(xí)率降低10倍正確答案:【A】解析:改變幾個(gè)時(shí)期的學(xué)習(xí)率有助于避免神經(jīng)網(wǎng)絡(luò)訓(xùn)練陷入局部最小值。增加參數(shù)數(shù)量可能會(huì)使問題更復(fù)雜,更容易陷入局部最小值;減少參數(shù)數(shù)量可能會(huì)限制模型表達(dá)能力;開始時(shí)將學(xué)習(xí)率降低10倍可能會(huì)使訓(xùn)練初期收斂過慢,而改變學(xué)習(xí)率在不同時(shí)期,可以在訓(xùn)練過程中跳出局部最優(yōu),更有可能找到全局最小值。8.試題:一次數(shù)據(jù)清洗操作得到的僅僅是“中間數(shù)據(jù)”,而不一定是“干凈數(shù)據(jù)”。因此我們需要對(duì)這些可能含有“臟數(shù)據(jù)”的“中間數(shù)據(jù)”進(jìn)行再次(),進(jìn)而判斷是否需要再次清洗。A、審計(jì)工作B、標(biāo)注工作C、集成工作D、轉(zhuǎn)換工作正確答案:【A】解析:在數(shù)據(jù)處理流程中,當(dāng)?shù)玫街虚g數(shù)據(jù)后,需要對(duì)其進(jìn)行審計(jì)工作來判斷其中是否還存在臟數(shù)據(jù),進(jìn)而決定是否需要再次清洗。轉(zhuǎn)換工作主要是對(duì)數(shù)據(jù)格式等進(jìn)行轉(zhuǎn)變;集成工作是將不同來源的數(shù)據(jù)整合;標(biāo)注工作一般是對(duì)數(shù)據(jù)進(jìn)行標(biāo)記等操作,均不符合對(duì)可能含臟數(shù)據(jù)的中間數(shù)據(jù)進(jìn)行判斷是否再次清洗的需求。所以應(yīng)該進(jìn)行審計(jì)工作,答案選B。9.試題:有三種方法可以幫助決策者確定決策的作用:()、場(chǎng)景分析和What-If分析A、測(cè)試B、建模C、回歸分析D、假設(shè)分析正確答案:【A】10.試題:下面的數(shù)據(jù)中哪個(gè)不屬于噪聲數(shù)據(jù)()A、異常數(shù)據(jù)B、重復(fù)數(shù)據(jù)C、虛假數(shù)據(jù)D、錯(cuò)誤數(shù)據(jù)正確答案:【B】解析:噪聲數(shù)據(jù)是指在數(shù)據(jù)中存在的無意義、錯(cuò)誤或干擾性的數(shù)據(jù)。虛假數(shù)據(jù)、錯(cuò)誤數(shù)據(jù)和異常數(shù)據(jù)都屬于噪聲數(shù)據(jù)的范疇。而重復(fù)數(shù)據(jù)本身并不一定是無意義或干擾性的,它可能在數(shù)據(jù)集中有其特定的價(jià)值,不一定屬于噪聲數(shù)據(jù)。所以不屬于噪聲數(shù)據(jù)的是重復(fù)數(shù)據(jù),答案選A。11.試題:下列關(guān)于LARS算法的說法正確的是(___)A、每次選擇一個(gè)與殘差相關(guān)性最大的特征B、是一種包裹式特征選擇法C、是通過對(duì)LASSO稍加修改而實(shí)現(xiàn)D、基于線性回歸平絕對(duì)誤差最小化正確答案:【A】12.試題:感知機(jī)描述錯(cuò)誤的是:(___)A、輸出層是M-P神經(jīng)元;B、感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;C、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;D、輸入層接收外界輸入信號(hào)傳遞給輸出層;正確答案:【C】解析:感知機(jī)根據(jù)預(yù)測(cè)結(jié)果與真實(shí)標(biāo)簽的差異進(jìn)行權(quán)重調(diào)整,而不是根據(jù)正確的程度。具體來說,感知機(jī)會(huì)計(jì)算預(yù)測(cè)值與真實(shí)值之間的誤差,然后根據(jù)誤差來調(diào)整權(quán)重,使得下一次預(yù)測(cè)更加準(zhǔn)確。選項(xiàng)B描述的是感知機(jī)的基本工作流程,輸入層接收外界輸入信號(hào)并傳遞給輸出層。選項(xiàng)C,輸出層是M-P神經(jīng)元,它根據(jù)輸入信號(hào)和權(quán)重計(jì)算輸出值。選項(xiàng)D,感知機(jī)可以通過適當(dāng)?shù)臋?quán)重設(shè)置實(shí)現(xiàn)邏輯與、或、非等簡(jiǎn)單運(yùn)算。13.試題:Iou表示的是()A、兩個(gè)框的相對(duì)大小B、兩個(gè)框的總面積C、兩個(gè)框之間的重疊程度D、一個(gè)框面積與周長(zhǎng)比值正確答案:【C】解析:IoU(IntersectionoverUnion)即交并比,是用來衡量?jī)蓚€(gè)框之間的重疊程度的指標(biāo)。計(jì)算方法是兩個(gè)框的交集面積除以并集面積,其值越大說明兩個(gè)框的重疊程度越高。14.試題:下列哪個(gè)if語句是正確的?A、&if(a>=22)B、&if(a=>22)&C、&ifa>=22&D、ifa>=22:&正確答案:【D】15.試題:生物特征識(shí)別技術(shù)不包括()。A、指紋識(shí)別B、體感交互C、虹膜識(shí)別D、人臉識(shí)別正確答案:【B】解析:生物特征識(shí)別技術(shù)是指通過計(jì)算機(jī)利用人體所固有的生理特征或行為特征來進(jìn)行個(gè)人身份鑒定的技術(shù)。常見的生物特征識(shí)別技術(shù)包括指紋識(shí)別、人臉識(shí)別、虹膜識(shí)別等。體感交互是一種通過肢體動(dòng)作來與設(shè)備進(jìn)行自然交互的技術(shù),不屬于生物特征識(shí)別技術(shù)。16.試題:關(guān)于競(jìng)爭(zhēng)型學(xué)習(xí)算法描述錯(cuò)誤的是A、是一種監(jiān)督學(xué)習(xí)策略B、每個(gè)時(shí)刻只有一個(gè)競(jìng)爭(zhēng)獲勝的神經(jīng)元被激活C、其他神經(jīng)元的狀態(tài)被抑制D、ART網(wǎng)絡(luò)通過競(jìng)爭(zhēng)型學(xué)習(xí)算法尋優(yōu)正確答案:【A】解析:競(jìng)爭(zhēng)型學(xué)習(xí)算法是一種無監(jiān)督學(xué)習(xí)策略,不是監(jiān)督學(xué)習(xí)策略。在競(jìng)爭(zhēng)型學(xué)習(xí)中,每個(gè)時(shí)刻只有一個(gè)競(jìng)爭(zhēng)獲勝的神經(jīng)元被激活,其他神經(jīng)元的狀態(tài)被抑制。ART網(wǎng)絡(luò)就是通過競(jìng)爭(zhēng)型學(xué)習(xí)算法來尋優(yōu)的。所以選項(xiàng)A描述錯(cuò)誤。17.試題:話題模型中的幾個(gè)概念不含有?(___)A、詞B、句C、話題D、文檔正確答案:【B】解析:話題模型中的基本概念包括詞、文檔、話題等,句并不是話題模型中的直接概念。18.試題:()是利用計(jì)算機(jī)將一種自然語言(源語言)轉(zhuǎn)換為另一種自然語言(目標(biāo)語言)的過程。A、問答系統(tǒng)B、文本分類C、文本識(shí)別D、機(jī)器翻譯正確答案:【D】解析:機(jī)器翻譯是利用計(jì)算機(jī)將一種自然語言(源語言)轉(zhuǎn)換為另一種自然語言(目標(biāo)語言)的過程。文本識(shí)別主要是對(duì)文本中的字符等進(jìn)行識(shí)別;文本分類是將文本劃分到不同類別;問答系統(tǒng)是基于提問給出回答,均不符合題干描述。19.試題:LSTM單元中引入了哪些門來更新當(dāng)前時(shí)刻的單元狀態(tài)向量?A、輸出門、任意門B、任意門、輸入門C、遺忘門、任意門D、輸入門、遺忘門正確答案:【D】解析:在LSTM單元中,輸入門用于控制當(dāng)前輸入信息進(jìn)入單元狀態(tài)的程度,遺忘門用于決定保留或丟棄上一時(shí)刻的單元狀態(tài)信息,二者共同作用來更新當(dāng)前時(shí)刻的單元狀態(tài)向量。20.試題:C4.5決策樹算法中采用()對(duì)連續(xù)屬性進(jìn)行離散化處理。A、最小二乘法B、投票法C、二分法D、均值法正確答案:【C】解析:C4.5決策樹算法中采用二分法對(duì)連續(xù)屬性進(jìn)行離散化處理。二分法通過將連續(xù)屬性的值域劃分為兩個(gè)子區(qū)間,不斷遞歸這個(gè)過程來進(jìn)行離散化,從而構(gòu)建決策樹。21.試題:一般而言,隨著劃分過程不斷進(jìn)行,我們希望決策樹的分支結(jié)點(diǎn)所包含的樣本盡可能屬于同一類別,即結(jié)點(diǎn)的()越來越高。A、精度B、可信度C、準(zhǔn)確度D、純度正確答案:【D】解析:隨著劃分過程不斷進(jìn)行,決策樹的分支結(jié)點(diǎn)所包含的樣本盡可能屬于同一類別,這意味著結(jié)點(diǎn)的純度越來越高。純度是指在一個(gè)集合中,某一類別樣本所占的比例。當(dāng)樣本都屬于同一類別時(shí),純度達(dá)到最高。精度主要側(cè)重于測(cè)量結(jié)果與真實(shí)值的接近程度;準(zhǔn)確度是指測(cè)量結(jié)果與真實(shí)值的符合程度;可信度通常與對(duì)某個(gè)結(jié)論或判斷的相信程度相關(guān)。而這里強(qiáng)調(diào)的是樣本類別集中程度,即純度。22.試題:CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率的設(shè)置往往對(duì)訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說法,錯(cuò)誤的是()A、學(xué)習(xí)率可在網(wǎng)絡(luò)訓(xùn)練過程中更改B、學(xué)習(xí)率太小,更新速度慢C、學(xué)習(xí)率過大,可能跨過最優(yōu)解D、學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來正確答案:【D】解析:在CNN網(wǎng)絡(luò)設(shè)計(jì)中,學(xué)習(xí)率是人為預(yù)先設(shè)定的一個(gè)超參數(shù),并不是由網(wǎng)絡(luò)學(xué)習(xí)而來。選項(xiàng)A,學(xué)習(xí)率太小,參數(shù)更新的步長(zhǎng)就小,導(dǎo)致更新速度慢,這是正確的;選項(xiàng)B,學(xué)習(xí)率過大,參數(shù)更新可能會(huì)跳過最優(yōu)解,也是合理的;選項(xiàng)D,學(xué)習(xí)率可以在網(wǎng)絡(luò)訓(xùn)練過程中進(jìn)行更改,例如采用學(xué)習(xí)率衰減策略等,同樣正確。23.試題:設(shè)X是隨機(jī)變量,且EX=DX,則X服從()分布A、指數(shù)B、正態(tài)C、泊松D、二項(xiàng)正確答案:【C】解析:泊松分布的期望和方差相等,都等于參數(shù)\(\lambda\)。已知\(EX=DX\),所以隨機(jī)變量\(X\)服從泊松分布。而二項(xiàng)分布\(B(n,p)\)中,期望\(EX=np\),方差\(DX=np(1-p)\),兩者一般不相等;正態(tài)分布\(N(\mu,\sigma^2)\)中,期望\(EX=\mu\),方差\(DX=\sigma^2\),兩者沒有必然相等關(guān)系;指數(shù)分布\(E(\lambda)\)中,期望\(EX=\frac{1}{\lambda}\),方差\(DX=\frac{1}{\lambda^2}\),兩者也不相等。24.試題:表達(dá)式min(['11','2','3'])的值為________。A、3'B、11'C、2'D、5'正確答案:【B】解析:min函數(shù)用于返回可迭代對(duì)象中的最小值。在這個(gè)例子中,['11','2','3']是一個(gè)字符串列表,比較字符串時(shí)按照字典序,'11'大于'2'和'3','2'小于'3',所以最小值是'2'。但是在題目所給的選項(xiàng)中,并沒有'2'這個(gè)選項(xiàng)。按照題目邏輯推測(cè),應(yīng)該是要找出這些選項(xiàng)表達(dá)式中值為真的,對(duì)于選項(xiàng)B,'>11'這個(gè)比較表達(dá)式在比較字符串時(shí),'2'小于'11',所以'2'滿足這個(gè)比較條件,即表達(dá)式的值為真。而選項(xiàng)A中'>3','2'小于'3'不滿足;選項(xiàng)C中'>2','2'等于'2'不滿足;選項(xiàng)D中'>5','2'小于'5'不滿足。所以答案是B。25.試題:代碼array=np.arange(10,31,5)中的5代表()?A、第一個(gè)元素B、步長(zhǎng)C、最后一個(gè)元素D、元素的個(gè)數(shù)正確答案:【B】解析:在`np.arange`函數(shù)中,第一個(gè)參數(shù)是起始值,第二個(gè)參數(shù)是終止值(不包含),第三個(gè)參數(shù)就是步長(zhǎng)。在代碼`array=np.arange(10,31,5)`中,5代表的就是步長(zhǎng),即每次生成的元素之間的間隔為5。26.試題:以下哪一個(gè)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說法是錯(cuò)誤的A、&目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的網(wǎng)絡(luò)結(jié)構(gòu)中包含卷積層&B、AlexNet是一個(gè)八層的卷積神經(jīng)網(wǎng)絡(luò)&C、&典型的卷積神經(jīng)網(wǎng)絡(luò),由卷積層、池化層、激活層、全連接層等組成D、&卷積神經(jīng)網(wǎng)絡(luò)中的建模學(xué)習(xí),學(xué)習(xí)對(duì)象是每一層神經(jīng)元的值&正確答案:【D】解析:卷積神經(jīng)網(wǎng)絡(luò)的建模學(xué)習(xí)對(duì)象是卷積核參數(shù),而非每一層神經(jīng)元的值,故B選項(xiàng)錯(cuò)誤。AlexNet是一個(gè)八層的卷積神經(jīng)網(wǎng)絡(luò),A選項(xiàng)正確;目標(biāo)檢測(cè)網(wǎng)絡(luò)SSD的網(wǎng)絡(luò)結(jié)構(gòu)中包含卷積層,C選項(xiàng)正確;典型的卷積神經(jīng)網(wǎng)絡(luò)由卷積層、池化層、激活層、全連接層等組成,D選項(xiàng)正確。27.試題:傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請(qǐng)問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、離散B、給定標(biāo)簽C、回歸D、分類正確答案:【C】解析:回歸是監(jiān)督學(xué)習(xí)中標(biāo)簽為連續(xù)類型的學(xué)習(xí)任務(wù)。分類是針對(duì)標(biāo)簽為離散類型的監(jiān)督學(xué)習(xí)任務(wù)。給定標(biāo)簽是監(jiān)督學(xué)習(xí)的定義描述,離散是標(biāo)簽的一種屬性,不是學(xué)習(xí)任務(wù)類型。28.試題:輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為?A、95B、97C、96D、$98正確答案:【B】29.試題:numpy數(shù)組的ndim屬性是()?A、列數(shù)B、數(shù)組的維度C、行數(shù)D、各維度大小的元組正確答案:【B】解析:ndim屬性返回的是數(shù)組的維度。例如,一個(gè)一維數(shù)組的ndim為1,一個(gè)二維數(shù)組的ndim為2。選項(xiàng)B中各維度大小的元組對(duì)應(yīng)的是shape屬性;選項(xiàng)C行數(shù)是二維數(shù)組shape屬性中的第一個(gè)元素;選項(xiàng)D列數(shù)是二維數(shù)組shape屬性中的第二個(gè)元素。30.試題:1997年5月,著名的“人機(jī)大戰(zhàn)”,最終計(jì)算機(jī)以3.5比2.5的總比分將世界國(guó)際象棋棋王卡斯帕羅夫擊敗,這臺(tái)計(jì)算機(jī)被稱為()A、IBMB、深思C、深藍(lán)D、藍(lán)天正確答案:【C】解析:1997年5月,“深藍(lán)”計(jì)算機(jī)以3.5比2.5的總比分擊敗世界國(guó)際象棋棋王卡斯帕羅夫,成為第一臺(tái)在標(biāo)準(zhǔn)比賽時(shí)限內(nèi)擊敗國(guó)際象棋世界冠軍的計(jì)算機(jī)系統(tǒng)?!癐BM”是國(guó)際商業(yè)機(jī)器公司,是“深藍(lán)”計(jì)算機(jī)的制造商;“深思”是早期的計(jì)算機(jī)國(guó)際象棋程序;“藍(lán)天”與此次人機(jī)大戰(zhàn)無關(guān)。所以答案是[A、]深藍(lán)。31.試題:隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈(___)_下降,最終趨向于零A、平方級(jí)B、對(duì)數(shù)級(jí)C、指數(shù)級(jí)D、線性級(jí)正確答案:【C】解析:隨著集成中個(gè)體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈指數(shù)級(jí)下降,最終趨向于零。這是因?yàn)閭€(gè)體分類器相互獨(dú)立,當(dāng)個(gè)體分類器足夠多時(shí),它們之間的差異可以相互抵消,從而使集成的錯(cuò)誤率迅速降低。具體來說,假設(shè)個(gè)體分類器的錯(cuò)誤率為e,那么集成的錯(cuò)誤率約為(1-e)^T,隨著T的增大,(1-e)^T呈指數(shù)級(jí)下降。32.試題:有兩個(gè)樣本點(diǎn),第一個(gè)點(diǎn)為正樣本,它的特征向量是(0,-1);第二個(gè)點(diǎn)為負(fù)樣本,它的特征向量是(2,3),從這兩個(gè)樣本點(diǎn)組成的訓(xùn)練集構(gòu)建一個(gè)線性SVM分類器的分類面方程是()。A、2x-y=0B、x+2y=3C、x+2y=5D、2x+y=4正確答案:【B】解析:設(shè)分類面方程為\(wx+b=0\),對(duì)于線性SVM,支持向量到分類面的距離相等且最大。已知兩個(gè)樣本點(diǎn),其中正樣本點(diǎn)\((0,-1)\)和負(fù)樣本點(diǎn)\((2,3)\),那么它們到分類面的距離公式分別為\(\frac{|w\times0+b|}{\sqrt{w_1^2+w_2^2}}\)和\(\frac{|w\times2+b|}{\sqrt{w_1^2+w_2^2}}\)。由于支持向量到分類面距離相等,所以\(\frac{|b|}{\sqrt{w_1^2+w_2^2}}=\frac{|2w_1+3w_2+b|}{\sqrt{w_1^2+w_2^2}}\),即\(|b|=|2w_1+3w_2+b|\),可得\(2w_1+3w_2+2b=0\)。不妨設(shè)\(w_1=1\),則\(2+3w_2+2b=0\),即\(3w_2+2b=-2\)。又因?yàn)榉诸惷嬉獙⒄?fù)樣本分開,把正樣本點(diǎn)\((0,-1)\)代入分類面方程\(wx+b=0\)得\(-w_2+b=0\),即\(b=w_2\),代入\(3w_2+2b=-2\)可得\(3b+2b=-2\),解得\(b=-\frac{2}{5}\),\(w_2=-\frac{2}{5}\),所以分類面方程為\(x-\frac{2}{5}y-\frac{2}{5}=0\),兩邊同乘5得到\(5x-2y-2=0\),即\(x+2y=3\)。對(duì)于兩個(gè)樣本點(diǎn)構(gòu)建的線性SVM分類器,其核心在于找到能將正負(fù)樣本正確分開且間隔最大的分類面。通過支持向量到分類面距離相等的條件,利用樣本點(diǎn)坐標(biāo)代入分類面方程來求解參數(shù)\(w\)和\(b\),從而確定分類面方程。在本題中,通過一系列計(jì)算得出分類面方程為\(x+2y=3\)。33.試題:被譽(yù)為計(jì)算機(jī)科學(xué)與人工智能之父的是()。A、費(fèi)根鮑姆B、西蒙C、紐維爾D、圖靈正確答案:【D】解析:阿蘭·麥席森·圖靈是英國(guó)數(shù)學(xué)家、邏輯學(xué)家,被廣泛認(rèn)為是計(jì)算機(jī)科學(xué)與人工智能之父。他對(duì)計(jì)算機(jī)科學(xué)的發(fā)展做出了許多重要貢獻(xiàn),包括提出圖靈機(jī)概念等,為現(xiàn)代計(jì)算機(jī)技術(shù)奠定了基礎(chǔ)。費(fèi)根鮑姆是知識(shí)工程的提出者;紐維爾和西蒙是人工智能領(lǐng)域的重要人物,但不是被譽(yù)為計(jì)算機(jī)科學(xué)與人工智能之父。34.試題:隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果,稱為()A、樣本空間B、樣本C、全部事件D、基本事件正確答案:【A】解析:樣本空間是隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果的集合?;臼录菢颖究臻g中的單個(gè)元素;樣本是從總體中抽取的部分個(gè)體;全部事件表述不準(zhǔn)確。所以隨機(jī)試驗(yàn)所有可能出現(xiàn)的結(jié)果稱為樣本空間,答案選D。35.試題:(___)是在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較。A、Friedman檢驗(yàn)B、交叉驗(yàn)證t檢驗(yàn)C、McNemar檢驗(yàn)D、t檢驗(yàn)正確答案:【A】解析:Friedman檢驗(yàn)可以在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較,它能檢驗(yàn)多個(gè)相關(guān)樣本是否來自相同分布的總體,適用于比較多個(gè)算法在同一數(shù)據(jù)集上的性能。而t檢驗(yàn)主要用于兩組樣本均值差異的比較;交叉驗(yàn)證t檢驗(yàn)是在交叉驗(yàn)證框架下進(jìn)行的t檢驗(yàn);McNemar檢驗(yàn)主要用于配對(duì)樣本的定性數(shù)據(jù)的檢驗(yàn),均不符合在一個(gè)數(shù)據(jù)集上對(duì)多個(gè)算法進(jìn)行比較的要求。36.試題:HUAWEIHiAI平臺(tái)中的人臉檢測(cè)是屬于哪個(gè)模塊?A、HiAIEngineB、HiAIServiceC、HiAIFrameworkD、HiAIFoundation正確答案:【A】37.試題:在Python中,函數(shù)()。A、不可以嵌套調(diào)用B、不可以遞歸調(diào)用C、不可以嵌套定義D、以上都不對(duì)正確答案:【D】解析:在Python中,函數(shù)可以嵌套定義,即函數(shù)內(nèi)部可以再定義函數(shù);函數(shù)也可以嵌套調(diào)用,即一個(gè)函數(shù)內(nèi)部可以調(diào)用另一個(gè)函數(shù);函數(shù)還可以遞歸調(diào)用,即函數(shù)直接或間接調(diào)用自身。38.試題:在圖靈測(cè)試中,如果有超過()的測(cè)試者不能分清屏幕后的對(duì)話者是人還是機(jī)器,就可以說這臺(tái)計(jì)算機(jī)通過了測(cè)試并具備人工智能.A、60%B、30%C、50%D、40%正確答案:【B】39.試題:根據(jù)個(gè)體學(xué)習(xí)器的生成方式,目前集成學(xué)習(xí)大致分為兩類,其中一種是個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系、必須串行生成的序列化方法,該方法的代表是()A、隨機(jī)森林B、BoostingC、BaggingD、reboot正確答案:【B】解析:Boosting是個(gè)體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系、必須串行生成的序列化方法。Bagging和隨機(jī)森林屬于并行生成個(gè)體學(xué)習(xí)器的方法,不存在強(qiáng)依賴關(guān)系,不是序列化方法。而reboot與集成學(xué)習(xí)的這種分類方式無關(guān)。40.試題:關(guān)于常用評(píng)分函數(shù)描述錯(cuò)誤的為(___)A、基于信息論準(zhǔn)則;B、學(xué)習(xí)問題看做為數(shù)據(jù)壓縮任務(wù);C、編碼位數(shù)僅為自身所需的編碼位數(shù);D、學(xué)習(xí)目標(biāo)為以最短編碼長(zhǎng)度描述訓(xùn)練數(shù)據(jù)模型;正確答案:【C】解析:選項(xiàng)D描述錯(cuò)誤?;谛畔⒄摐?zhǔn)則的評(píng)分函數(shù),將學(xué)習(xí)問題看作數(shù)據(jù)壓縮任務(wù),學(xué)習(xí)目標(biāo)是用最短編碼長(zhǎng)度描述訓(xùn)練數(shù)據(jù)及其模型,編碼長(zhǎng)度包括模型自身所需編碼位數(shù)和給定模型下數(shù)據(jù)的編碼位數(shù),而不是僅為自身所需的編碼位數(shù)。41.試題:以下()屬于NoSQL數(shù)據(jù)庫(kù)中Key-Value的缺點(diǎn)。A、功能相對(duì)有限,不易于做分布式集群B、查詢性能不高,缺乏統(tǒng)一查詢語法C、數(shù)據(jù)無結(jié)構(gòu)D、功能相對(duì)有限正確答案:【C】42.試題:人工智能的三個(gè)階段包含了計(jì)算智能、()、認(rèn)知智能。A、弱人工智能B、行為智能C、感知智能D、強(qiáng)人工智能正確答案:【C】解析:人工智能的三個(gè)階段包含計(jì)算智能、感知智能、認(rèn)知智能。計(jì)算智能主要基于數(shù)值計(jì)算和數(shù)據(jù)處理;感知智能側(cè)重于讓機(jī)器具備類似人類的感知能力,如視覺、聽覺等;認(rèn)知智能則使機(jī)器能夠理解、學(xué)習(xí)、推理和決策,更接近人類的智能水平。弱人工智能和強(qiáng)人工智能是關(guān)于人工智能能力強(qiáng)弱的分類;行為智能并非人工智能這三個(gè)階段的內(nèi)容。43.試題:深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時(shí)需要大量的矩陣計(jì)算,一般我們需要配用硬件讓計(jì)算機(jī)具備并行計(jì)算的能力,以下硬件設(shè)備可提供并行計(jì)算能力的是:A、GPUB、主板C、CPUD、內(nèi)存條正確答案:【A】解析:GPU是專門為并行計(jì)算設(shè)計(jì)的硬件設(shè)備,能夠高效地處理深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練中大量的矩陣計(jì)算,提供強(qiáng)大的并行計(jì)算能力。主板主要起連接各種硬件的作用,不具備并行計(jì)算能力;內(nèi)存條主要用于暫時(shí)存儲(chǔ)數(shù)據(jù),不用于并行計(jì)算;CPU雖然也能進(jìn)行并行計(jì)算,但在處理深度學(xué)習(xí)這類大規(guī)模矩陣計(jì)算時(shí),GPU的效率更高,所以能提供并行計(jì)算能力的是GPU。44.試題:最簡(jiǎn)單的Series是由()的數(shù)據(jù)構(gòu)成A、一個(gè)數(shù)組B、兩個(gè)數(shù)組C、四個(gè)數(shù)組D、三個(gè)數(shù)組正確答案:【A】解析:Series是pandas中的一種數(shù)據(jù)結(jié)構(gòu),最簡(jiǎn)單的Series是由一個(gè)數(shù)組的數(shù)據(jù)構(gòu)成。它可以包含各種數(shù)據(jù)類型,如整數(shù)、浮點(diǎn)數(shù)、字符串等。45.試題:檢索的()和基于反事實(shí)學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)域重要的研究方向A、準(zhǔn)確性B、真實(shí)性C、快速性D、公平性正確答案:【D】46.試題:以下不是貝葉斯回歸的優(yōu)點(diǎn)的是哪一項(xiàng)A、它能在估計(jì)過程中引入正則項(xiàng)B、貝葉斯回歸的推斷速度快C、它能根據(jù)已有的數(shù)據(jù)進(jìn)行改變正確答案:【B】解析:貝葉斯回歸的優(yōu)點(diǎn)包括能根據(jù)已有的數(shù)據(jù)進(jìn)行改變,能在估計(jì)過程中引入正則項(xiàng)等。但貝葉斯回歸通常計(jì)算量較大,推斷速度相對(duì)較慢,所以“貝葉斯回歸的推斷速度快”不是其優(yōu)點(diǎn)。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論