遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題)_第1頁(yè)
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題)_第2頁(yè)
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題)_第3頁(yè)
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題)_第4頁(yè)
遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題)_第5頁(yè)
已閱讀5頁(yè),還剩168頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

PAGEPAGE1遼寧省第二屆職業(yè)技能大賽(人工智能訓(xùn)練賽項(xiàng))理論參考試題庫(kù)-上(單選題匯總)一、單選題1.下列選項(xiàng)中,哪項(xiàng)是由谷歌開(kāi)發(fā)的人工能箅法框架?A、KafkaB、TensorflowC、affeD、Torch答案:B2.在人工智能的三次浪潮中,第三次浪潮是以()為代表。A、lphaGoB、專(zhuān)家系統(tǒng)C、人工神經(jīng)網(wǎng)絡(luò)D、聊天機(jī)器人答案:A3.華為EI智能體驗(yàn)館中,適用于模糊圖像重建高清圖像,并保持圖像內(nèi)容真實(shí)可信,顏色不失真的人工智能應(yīng)用是()。A、圖像標(biāo)簽B、低光照增強(qiáng)C、圖像去霧D、視頻標(biāo)簽答案:B4.語(yǔ)音識(shí)別屬于人工智能中的()。A、指紋識(shí)別研究范疇B、數(shù)字識(shí)別研究范疇C、模式識(shí)別研究范疇D、字符識(shí)別研究范疇答案:C5.下列屬于特征降維的方法為()。A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法答案:A6.字符函數(shù)Rtrim(字符表達(dá)式)返回去掉字符表達(dá)式什么的字符串()。A、前導(dǎo)空格B、中間空格C、兩端空格D、尾部空格答案:D7.以下選項(xiàng)中,Python代碼的注釋使用的符號(hào)是()。A、//B、/?……?/C、%D、#答案:D8.以下哪個(gè)不是強(qiáng)化學(xué)習(xí)的基本元素?A、狀態(tài)B、動(dòng)作C、獎(jiǎng)勵(lì)D、標(biāo)簽答案:D9.以下哪項(xiàng)技術(shù)不是AI的分支?A、機(jī)器學(xué)習(xí)B、深度學(xué)習(xí)C、虛擬現(xiàn)實(shí)D、自然語(yǔ)言處理答案:C10.代碼print(1if'a'in'ABC'else2)執(zhí)行結(jié)果是()。A、2B、TRUEC、FALSED、1答案:A11.假定學(xué)生關(guān)系是S(S#,SNAME,SEX,AGE),課程關(guān)系是C(C#,CNAME,TEACHER),學(xué)生選課關(guān)系是SC(S#,C#,GRADE),要查找選修“COMPUTER”課程的女學(xué)生的姓名,將涉及到關(guān)系()A、SCB、SC,CC、S,SCD、S,C,SC答案:D12.使用白盒測(cè)試方法時(shí),確定測(cè)試數(shù)據(jù)應(yīng)根據(jù)()和指定的覆蓋標(biāo)準(zhǔn)。A、程序的內(nèi)部結(jié)構(gòu)B、程序的復(fù)雜性C、使用說(shuō)明書(shū)D、程序的功能答案:A13.人工智能模擬的是西方實(shí)證科學(xué),處理的是()。A、數(shù)據(jù)B、本質(zhì)C、表征D、現(xiàn)象答案:D14.在Access數(shù)據(jù)庫(kù)中,對(duì)數(shù)據(jù)表求列平均值的是().A、匯總查詢(xún)B、操作查詢(xún)C、選擇查詢(xún)D、追加查詢(xún)答案:C15.神經(jīng)網(wǎng)絡(luò)中的哪個(gè)層通常用于學(xué)習(xí)輸入數(shù)據(jù)的表示?A、輸入層B、隱藏層C、輸出層D、激活函數(shù)層答案:B16.在強(qiáng)化學(xué)習(xí)中,Q-learning和SARSA算法的主要區(qū)別是什么?A、Q-learning使用最大值函數(shù)進(jìn)行更新,而SARSA使用實(shí)際動(dòng)作的值進(jìn)行更新。B、Q-learning使用實(shí)際動(dòng)作的值進(jìn)行更新,而SARSA使用最大值函數(shù)進(jìn)行更新。C、Q-learning需要模型知識(shí),而SARSA不需要。D、Q-learning不需要模型知識(shí),而SARSA需要。答案:A17.人工智能誕生于哪一年?()A、1955B、1957C、1956D、1965答案:C18.在支持向量機(jī)中,核函數(shù)的主要作用是什么?A、將數(shù)據(jù)映射到高維空間B、降低數(shù)據(jù)的維度C、提高模型的訓(xùn)練速度D、減少模型的復(fù)雜度答案:A19.在自然語(yǔ)言處理中,詞袋模型(BagofWords,BoW)的一個(gè)限制是什么?A、它考慮了單詞的順序。B、它捕捉了句子的語(yǔ)義。C、它忽略了單詞之間的上下文關(guān)系。D、它適用于任何語(yǔ)言。答案:C20.AI的英文是()。A、utomaticIntelligenceB、ArtificialIntelligenceC、AutomaticInformationD、ArtificialInformation答案:B21.傳統(tǒng)的機(jī)器學(xué)習(xí)包括符號(hào)學(xué)習(xí)和()。A、建模學(xué)習(xí)B、連接學(xué)習(xí)C、分類(lèi)學(xué)習(xí)D、數(shù)據(jù)挖掘答案:B22.如果使用向?qū)?chuàng)建交叉表查詢(xún)的數(shù)據(jù)源必須來(lái)自多個(gè)表,可以先建立一個(gè)什么表,然后將其作為數(shù)據(jù)源()。A、表B、虛表C、查詢(xún)D、動(dòng)態(tài)集答案:C23.()指的是模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但在未見(jiàn)過(guò)的測(cè)試數(shù)據(jù)上表現(xiàn)較差的情況。A、欠擬合B、過(guò)擬合C、不擬合D、分類(lèi)答案:B24.下面屬于強(qiáng)化學(xué)習(xí)的是()A、兩個(gè)變量之間的關(guān)系,一個(gè)變量的數(shù)量變化由另一個(gè)變量的數(shù)量變化所惟一確定,則這兩個(gè)變量之間的關(guān)系稱(chēng)為強(qiáng)化學(xué)習(xí)。B、用戶(hù)每讀一篇文章,就給這篇新聞貼上分類(lèi)標(biāo)簽,例如這篇新聞是軍事新聞,下一篇新聞是經(jīng)濟(jì)新聞等;算法通過(guò)這些分類(lèi)標(biāo)簽進(jìn)行學(xué)習(xí),獲得分類(lèi)模型;再有新的文章過(guò)來(lái)的時(shí)候,算法通過(guò)分類(lèi)模型就可以給新的文章自動(dòng)貼上標(biāo)簽了。C、算法先少量給用戶(hù)推薦各類(lèi)文章,用戶(hù)會(huì)選擇其感興趣的文章閱讀,這就是對(duì)這類(lèi)文章的一種獎(jiǎng)勵(lì),算法會(huì)根據(jù)獎(jiǎng)勵(lì)情況構(gòu)建用戶(hù)可能會(huì)喜歡的文章的“知識(shí)圖”。D、用戶(hù)經(jīng)常閱讀軍事類(lèi)和經(jīng)濟(jì)類(lèi)的文章,算法就把和用戶(hù)讀過(guò)的文章相類(lèi)似的文章推薦給你。答案:C25.在機(jī)器學(xué)習(xí)中,批量歸一化(BatchNormalization)主要用于解決什么問(wèn)題?A、加速梯度下降的收斂速度B、減少模型的輸入大小C、增強(qiáng)模型的非線性能力D、提供更好的初始化權(quán)重答案:A26.標(biāo)注出一句話(huà)中的動(dòng)詞屬于()。A、分詞標(biāo)注B、意圖標(biāo)注C、詞性標(biāo)注D、實(shí)體標(biāo)注答案:C27.下列不屬于卷積操作的為:()。A、一維B、二維C、三維D、四維答案:D28.半監(jiān)督學(xué)習(xí)主要結(jié)合了哪兩種學(xué)習(xí)方法?A、監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)B、監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)C、無(wú)監(jiān)督學(xué)習(xí)和遷移學(xué)習(xí)D、遷移學(xué)習(xí)和主動(dòng)學(xué)習(xí)答案:A29.在深度學(xué)習(xí)中,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變體LSTM和GRU的主要區(qū)別在于什么?A、門(mén)控機(jī)制的不同。B、遺忘機(jī)制的不同。C、輸入和輸出單元的不同。D、層疊方式的不同。答案:A30.在課堂上,教師講課的聲音成為知覺(jué)的對(duì)象,而環(huán)境中的其他聲音成為背景音。這體現(xiàn)了知覺(jué)的()。A、理解性B、恒常性C、選擇性D、整體性答案:C31.操作系統(tǒng)的主要功能是A、實(shí)現(xiàn)軟、硬件轉(zhuǎn)換B、管理系統(tǒng)所有的軟、硬件資源C、把源程序轉(zhuǎn)換為目標(biāo)程序D、進(jìn)行數(shù)據(jù)處理答案:B32.人們把以()為硬件基本部件的計(jì)算機(jī)稱(chēng)為第四代計(jì)算機(jī)。A、大規(guī)模和超大規(guī)模集成電路B、ROM和RAMC、小規(guī)模集成電路D、磁帶與磁盤(pán)答案:A33.以下哪個(gè)不屬于大數(shù)據(jù)在電信行業(yè)的數(shù)據(jù)商業(yè)化方面的應(yīng)用A、精準(zhǔn)廣告B、網(wǎng)絡(luò)管理C、營(yíng)銷(xiāo)洞察D、大數(shù)據(jù)檢測(cè)和決策答案:B34.在機(jī)器學(xué)習(xí)中,過(guò)擬合通常指的是什么?A、模型在訓(xùn)練集上表現(xiàn)很好,但在測(cè)試集上表現(xiàn)較差B、模型在訓(xùn)練集和測(cè)試集上表現(xiàn)都很好C、模型在訓(xùn)練集上表現(xiàn)很差,但在測(cè)試集上表現(xiàn)很好D、模型無(wú)法處理任何數(shù)據(jù)答案:A35.針對(duì)“南京市長(zhǎng)江大橋”這句話(huà)分詞正確的是A、南京/市長(zhǎng)/江大橋B、南京市/長(zhǎng)江大橋C、南京/市/長(zhǎng)江/大橋D、南京/市/長(zhǎng)江/大/橋答案:B36.如果a=1,b=2,c=3,則表達(dá)式(a==b<c)==(a==bandb<c)的值為()。A、FALSEB、0C、TRUED、-1答案:C37.在深度學(xué)習(xí)模型中,Dropout技術(shù)的效果是:A、增加模型的參數(shù)量B、減少模型的訓(xùn)練時(shí)間C、減輕過(guò)擬合現(xiàn)象D、加速模型的收斂速度答案:C38.以下哪個(gè)不是解決探索-利用困境的常用方法?A、ε-greedy策略B、softmax策略C、UCB(UpperConfidenceBound)算法D、梯度下降算法答案:D39.以下技術(shù),BERT使用的包括哪些?A、TransformerB、SeHAttention模塊C、RNN循環(huán)連接D、文本卷積答案:B40.目標(biāo)檢測(cè)中的感興趣區(qū)域(RegionofInterest,ROI)池化是指:A、將不同尺寸的目標(biāo)框映射到固定大小的特征圖上B、對(duì)目標(biāo)框中的像素進(jìn)行加權(quán)平均C、利用卷積操作提取目標(biāo)框的特征D、選擇具有最高置信度的目標(biāo)框答案:A41.在人工智能中,什么是“過(guò)擬合”?A、模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)良好,但在測(cè)試數(shù)據(jù)上表現(xiàn)不佳B、模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)不佳,但在測(cè)試數(shù)據(jù)上表現(xiàn)良好C、模型復(fù)雜度過(guò)高,導(dǎo)致訓(xùn)練時(shí)間過(guò)長(zhǎng)D、模型復(fù)雜度不足,無(wú)法學(xué)習(xí)數(shù)據(jù)的特征答案:A42.我國(guó)大模型運(yùn)營(yíng)的法律監(jiān)管框架主要側(cè)重于哪些方面?A、算法技術(shù)合規(guī)B、用戶(hù)數(shù)據(jù)隱私保護(hù)C、國(guó)際聯(lián)網(wǎng)合規(guī)D、全部上述內(nèi)容答案:D43.在深度學(xué)習(xí)中,條件隨機(jī)場(chǎng)(CRF)主要用于解決什么問(wèn)題?A、圖像分割B、序列標(biāo)注C、無(wú)監(jiān)督學(xué)習(xí)D、特征選擇答案:B44.不屬于機(jī)器視覺(jué)應(yīng)用分類(lèi)的是()。A、測(cè)量B、檢測(cè)C、定位D、監(jiān)控答案:D45.下面()是NLP用例。A、從圖像中檢測(cè)物體B、面部識(shí)別C、語(yǔ)音生物識(shí)別D、文本摘要答案:D46.使用交互式訓(xùn)練的目的是什么?()A、增加自定義動(dòng)作B、連接界面C、搭建服務(wù)器D、增加樣本數(shù)據(jù)答案:D47.數(shù)據(jù)庫(kù)系統(tǒng)的特點(diǎn)是(),數(shù)據(jù)獨(dú)立,減少數(shù)據(jù)冗余,避免數(shù)據(jù)不一致和加強(qiáng)了數(shù)據(jù)保護(hù).A、數(shù)據(jù)共享B、數(shù)據(jù)存儲(chǔ)C、數(shù)據(jù)應(yīng)用D、數(shù)據(jù)保密答案:A48.在目標(biāo)檢測(cè)中,非極大值抑制(Non-MaximumSuppression,NMS)主要用于解決什么問(wèn)題?A、目標(biāo)定位不準(zhǔn)確B、目標(biāo)識(shí)別錯(cuò)誤C、重疊檢測(cè)框的冗余D、目標(biāo)特征提取不足答案:C49.在機(jī)器學(xué)習(xí)中,決策樹(shù)算法的主要優(yōu)點(diǎn)是什么?A、它能夠很好地處理非線性問(wèn)題。B、它不需要任何形式的參數(shù)調(diào)整。C、它總是能找到全局最優(yōu)解。D、它適用于大規(guī)模數(shù)據(jù)集。答案:B50.當(dāng)希望機(jī)器人進(jìn)行快速運(yùn)動(dòng)而選定電動(dòng)機(jī)時(shí),選擇()的電動(dòng)機(jī)比較好。A、轉(zhuǎn)動(dòng)慣量大且轉(zhuǎn)矩系數(shù)大B、轉(zhuǎn)動(dòng)慣量大且轉(zhuǎn)矩系數(shù)小C、轉(zhuǎn)動(dòng)慣量小且轉(zhuǎn)矩系數(shù)大D、轉(zhuǎn)動(dòng)慣量小且轉(zhuǎn)矩系數(shù)小答案:C51.下列不屬于深度學(xué)習(xí)框架的是()。A、PytorchB、tensorflowC、jiebaD、MXnet答案:C52.張量是矩陣向任意維度的推廣,其不包括()。A、標(biāo)量B、向量C、多維數(shù)組D、字符串答案:D53.有一個(gè)網(wǎng)絡(luò)數(shù)據(jù)庫(kù)應(yīng)用系統(tǒng),其中一臺(tái)計(jì)算機(jī)A存有DBMS(數(shù)據(jù)庫(kù)管理系統(tǒng))軟件、所有用戶(hù)數(shù)據(jù)和應(yīng)用程序,其余各節(jié)點(diǎn)作為終端通過(guò)通信線路向A發(fā)出數(shù)據(jù)庫(kù)應(yīng)用請(qǐng)求,這種方式屬于()A、集中式數(shù)據(jù)庫(kù)系統(tǒng)B、并行數(shù)據(jù)庫(kù)系統(tǒng)C、客戶(hù)機(jī)/服務(wù)器數(shù)據(jù)庫(kù)系統(tǒng)D、分布式數(shù)據(jù)庫(kù)系統(tǒng)答案:A54.機(jī)器視覺(jué)成像系統(tǒng),采用鏡頭、()與圖像采集卡等相關(guān)設(shè)備獲取被觀測(cè)目標(biāo)的高質(zhì)量圖像,并傳送到專(zhuān)用圖像處理系統(tǒng)進(jìn)行處理。A、照明B、工業(yè)相機(jī)C、激光雷達(dá)D、紅外傳感器答案:B55.一個(gè)完整的計(jì)算機(jī)系統(tǒng)包括()A、計(jì)算機(jī)及其外部設(shè)備B、主機(jī)、鍵盤(pán)、顯示器C、系統(tǒng)軟件與應(yīng)用軟件D、硬件系統(tǒng)與軟件系統(tǒng)答案:D56.在自然語(yǔ)言處理中,Chunking是什么?A、一種語(yǔ)義分析技術(shù)。B、一種詞性標(biāo)注技術(shù)。C、一種構(gòu)建單詞之間語(yǔ)法樹(shù)的技術(shù)。D、一種命名實(shí)體識(shí)別技術(shù)。答案:A57.在大規(guī)模的語(yǔ)料中,挖掘詞的相關(guān)性是一個(gè)重要的問(wèn)題。以下哪一個(gè)信息不能用于確定兩個(gè)詞的相關(guān)性()A、互信息B、最大熵C、卡方檢驗(yàn)D、最大似然比答案:B58.以下哪種方法可以用來(lái)緩解深度學(xué)習(xí)模型的梯度消失問(wèn)題?A、使用較小的網(wǎng)絡(luò)權(quán)重初始化B、增加網(wǎng)絡(luò)層數(shù)C、使用ReLU激活函數(shù)D、增加訓(xùn)練迭代次數(shù)答案:C59.以下哪項(xiàng)屬于人工智能訓(xùn)練師的主要職責(zé)?A、招聘員工B、財(cái)務(wù)管理C、數(shù)據(jù)采集D、銷(xiāo)售業(yè)績(jī)答案:C60.深度學(xué)習(xí)中的哪個(gè)技術(shù)常用于防止過(guò)擬合?A、梯度下降B、反向傳播C、丟棄法(Dropout)D、批量歸一化(BatchNormalization)答案:C61.貝葉斯網(wǎng)結(jié)構(gòu)有效地表達(dá)了屬性的(_)。A、相互制約性B、條件獨(dú)立性C、取值D、含義答案:B62.Python不支持的數(shù)據(jù)類(lèi)型有()。A、charB、intC、floatD、list答案:A63.剪枝是決策樹(shù)學(xué)習(xí)算法對(duì)付()的主要手段。A、欠擬合B、過(guò)擬合C、樣本數(shù)過(guò)多D、特征數(shù)過(guò)多答案:B64.使用百度AI的SDK,新建圖像識(shí)別客戶(hù)端,需要導(dǎo)入哪個(gè)模塊()。A、PILB、aidu-aipC、aipD、AipImageClassify答案:D65.以下關(guān)于函數(shù)說(shuō)法正確的是()。A、函數(shù)的實(shí)際參數(shù)和形式參數(shù)必須同名B、函數(shù)的形式參數(shù)既可以是變量也可以是常量C、函數(shù)的實(shí)際參數(shù)不可以是表達(dá)式D、函數(shù)的實(shí)際參數(shù)可以是其他函數(shù)的調(diào)用答案:D66.人工智能的主要學(xué)派有:符號(hào)主義、連接主義和()A、語(yǔ)義網(wǎng)絡(luò)B、行為主義C、邏輯主義D、以上沒(méi)有正確答案答案:B67.下列不屬于人工智能學(xué)派的是()。A、行為主義B、連接主義C、機(jī)會(huì)主義D、符號(hào)主義答案:C68.數(shù)字音頻采樣和量化過(guò)程所用的主要硬件是()。A、數(shù)字編碼器B、數(shù)字解碼器C、模擬到數(shù)字的轉(zhuǎn)換器(A/D轉(zhuǎn)換器)D、數(shù)字到模擬的轉(zhuǎn)換器(D/A轉(zhuǎn)換器)答案:C69.政治人物檢測(cè)是基于()的圖像智能審核方案,可快速判斷是否有政治人物、事件等敏感信息,將違規(guī)信息扼殺在萌芽狀態(tài),幫助降低人力審核成本。A、深度學(xué)習(xí)B、自然語(yǔ)言處理C、專(zhuān)家系統(tǒng)D、智能控制答案:A70.InCeptionv2-v3模型中把1個(gè)3?3的卷積拆分為1?3和3?1的卷積好處是什么?()A、抵抗過(guò)擬合B、加快模型收斂速度C、增加網(wǎng)絡(luò)特征提取能力D、抵抗梯度消失答案:C71.下列四項(xiàng)中,不屬于數(shù)據(jù)庫(kù)系統(tǒng)特點(diǎn)的是()。A、數(shù)據(jù)共享B、數(shù)據(jù)完整性C、數(shù)據(jù)冗余度高D、數(shù)據(jù)獨(dú)立性高答案:C72.在大語(yǔ)言模型中,Transformer結(jié)構(gòu)的主要作用是什么?A、提取文本特征B、生成文本數(shù)據(jù)C、對(duì)文本進(jìn)行分類(lèi)D、降低模型的復(fù)雜度答案:A73.關(guān)于物聯(lián)網(wǎng)以下表述錯(cuò)誤的是()。A、物聯(lián)網(wǎng)可以實(shí)現(xiàn)物理空間與信息空間的融合B、物聯(lián)網(wǎng)被認(rèn)為是繼蒸汽機(jī)電力之后的第三次工業(yè)革命C、物聯(lián)網(wǎng)是可以把各種物品與計(jì)算機(jī)網(wǎng)絡(luò)互聯(lián)起來(lái)以實(shí)現(xiàn)智能化識(shí)別定位跟蹤監(jiān)控和管理的一種網(wǎng)絡(luò)D、物聯(lián)網(wǎng)必須通過(guò)各類(lèi)信息感知設(shè)備進(jìn)行數(shù)據(jù)采集答案:B74.世界上第一次正式的AI會(huì)議于()年召開(kāi),JohnMcCarthy正式提出“ArtificialIntelligence”這一術(shù)語(yǔ)A、1957B、1954C、1955D、1956答案:D75.不屬于Access的窗體視圖的是()。A、"設(shè)計(jì)"視圖B、"查詢(xún)"視圖C、"窗體"視圖D、"數(shù)據(jù)表"視圖答案:B76.以下數(shù)據(jù)單位換算錯(cuò)誤的是?A、1KB=1024BB、1GB=1024MBC、1TB=1000GBD、1MB=1024KB答案:C77.用兩個(gè)3x3的卷積核對(duì)一副三通道的彩色圖像進(jìn)卷積,得到的特征圖有()個(gè)通道。A、1B、2C、3D、4答案:B78.采用單元?dú)w結(jié)策略的歸結(jié)方法是()。A、不完備的B、完備的C、不一定答案:A79.什么時(shí)期開(kāi)始出現(xiàn)了基于統(tǒng)計(jì)學(xué)習(xí)方法的人工智能技術(shù)?A、1950年代B、1960年代C、1980年代D、1990年代答案:D80.在自然語(yǔ)言處理中,用于改善模型對(duì)同義詞理解的技術(shù)是:A、詞嵌入B、詞頻統(tǒng)計(jì)C、one-hot編碼D、詞袋模型答案:A81.如果以特征向量的相關(guān)系數(shù)作為模式相似性測(cè)度,則影響聚類(lèi)算法結(jié)果的因素有()。A、已知類(lèi)別樣本質(zhì)量B、量綱C、特征選取D、已知樣本的類(lèi)別答案:A82.機(jī)器學(xué)習(xí)中,哪種方法通常用于數(shù)據(jù)降維?A、主成分分析(PCA)B、決策樹(shù)C、邏輯回歸D、K-近鄰算法答案:A83.分布式文件系統(tǒng)支持動(dòng)態(tài)新增或刪除一個(gè)或多個(gè)存儲(chǔ)節(jié)點(diǎn),這表現(xiàn)了系統(tǒng)的()。A、可靠性B、可擴(kuò)展性C、易用性D、高效性答案:B84.在深度學(xué)習(xí)中,Dropout技術(shù)的主要目的是什么?A、加速網(wǎng)絡(luò)訓(xùn)練。B、增加網(wǎng)絡(luò)層之間的連接。C、防止網(wǎng)絡(luò)過(guò)擬合。D、提高網(wǎng)絡(luò)的泛化能力。答案:C85.在AI領(lǐng)域,過(guò)擬合指的是什么?A、模型在訓(xùn)練集上表現(xiàn)不佳B、模型在測(cè)試集上表現(xiàn)不佳C、模型在訓(xùn)練集和測(cè)試集上都表現(xiàn)良好D、模型只學(xué)習(xí)到了訓(xùn)練集的噪聲答案:D86.為了建立數(shù)據(jù)庫(kù)中表之間的關(guān)聯(lián)關(guān)系,可以選擇().A、"文件"菜單中的"關(guān)系"命令B、"插入"菜單中的"關(guān)系"命令C、"工具"菜單中的"關(guān)系"命令D、"視圖"菜單中的"關(guān)系"命令答案:C87.在機(jī)器學(xué)習(xí)中,交叉驗(yàn)證的主要目的是什么?A、提高模型的泛化能力B、減少訓(xùn)練數(shù)據(jù)量C、加速訓(xùn)練過(guò)程D、增加模型的復(fù)雜度答案:A88.目前,數(shù)據(jù)庫(kù)管理系統(tǒng)最常用的邏輯數(shù)據(jù)模型是()。A、網(wǎng)狀模型B、層次模型C、關(guān)系模型D、面向?qū)ο竽P痛鸢福篊89.人工智能中的“過(guò)擬合”是指什么?A、模型過(guò)于簡(jiǎn)單,不能很好地?cái)M合數(shù)據(jù)B、模型在訓(xùn)練集上表現(xiàn)很好,但在測(cè)試集上表現(xiàn)較差C、模型在訓(xùn)練過(guò)程中學(xué)習(xí)到了數(shù)據(jù)中的噪音D、模型復(fù)雜度不足,無(wú)法捕捉數(shù)據(jù)中的關(guān)鍵特征答案:C90.在深度學(xué)習(xí)中,生成對(duì)抗網(wǎng)絡(luò)(GAN)的生成器和判別器分別起什么作用?A、生成器和判別器都用于生成數(shù)據(jù)B、生成器用于生成數(shù)據(jù),判別器用于判斷數(shù)據(jù)的真實(shí)性C、生成器用于判斷數(shù)據(jù)的真實(shí)性,判別器用于生成數(shù)據(jù)D、生成器和判別器都用于分類(lèi)任務(wù)答案:B91.常見(jiàn)的數(shù)據(jù)標(biāo)注結(jié)果文件后綴名包括()。A、movB、xmlC、aviD、jpg答案:B92.在生成對(duì)抗網(wǎng)絡(luò)(GAN)中,哪個(gè)網(wǎng)絡(luò)負(fù)責(zé)生成數(shù)據(jù)?A、生成器(Generator)B、判別器(Discriminator)C、編碼器(Encoder)D、解碼器(Decoder)答案:A93.我國(guó)在語(yǔ)音語(yǔ)義識(shí)別領(lǐng)域的領(lǐng)軍企業(yè)是()。A、科大訊飛B、圖譜科技C、阿里巴巴D、華為答案:A94.下面是常用數(shù)據(jù)處理工具的是()A、編譯語(yǔ)言B、動(dòng)畫(huà)制作工具C、圖片編輯工具D、python語(yǔ)言答案:D95.什么是交叉熵?A、一種用于評(píng)估分類(lèi)模型的性能的指標(biāo)B、一種用于特征選擇的技術(shù)C、一種用于評(píng)估模型預(yù)測(cè)的準(zhǔn)確性的函數(shù)D、一種用于調(diào)整模型參數(shù)的函數(shù)答案:C96.以下哪項(xiàng)是數(shù)據(jù)標(biāo)注的常用工具?A、labelImgB、labelmeC、VATD、所有以上答案:D97.關(guān)于矩陣的廣義逆,下列表述不正確的是?A、若矩陣A的廣義逆為B,則A?B?A=A,B?A?B=BB、若矩陣A的廣義逆為B,則A?B和B?A都是對(duì)稱(chēng)陣。C、矩陣A一定存在確定唯一的廣義逆。D、矩陣A可能不存在廣義逆。答案:D98.下列關(guān)于人工智能的說(shuō)法中,哪一項(xiàng)是錯(cuò)誤的()。A、人工智能是一門(mén)使機(jī)器做那些人需要通過(guò)智能來(lái)做的事情的學(xué)科B、人工智能是研究機(jī)器如何像人一樣合理思考、像人一樣合理行動(dòng)的學(xué)科C、人工智能是研究機(jī)器如何思維的一門(mén)學(xué)科D、人工智能主要研究知識(shí)的表示、知識(shí)的獲取和知識(shí)的運(yùn)用答案:C99.下列哪一項(xiàng)不屬于卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)?A、權(quán)重共享B、局部連接C、可并行計(jì)算D、需要大量標(biāo)注數(shù)據(jù)答案:D100.在層次聚類(lèi)中,凝聚法和分裂法的主要區(qū)別是什么?A、凝聚法從單個(gè)數(shù)據(jù)點(diǎn)開(kāi)始,分裂法從整個(gè)數(shù)據(jù)集開(kāi)始B、分裂法從單個(gè)數(shù)據(jù)點(diǎn)開(kāi)始,凝聚法從整個(gè)數(shù)據(jù)集開(kāi)始C、兩者沒(méi)有本質(zhì)區(qū)別D、凝聚法基于距離,分裂法基于密度答案:A101.?機(jī)器人底盤(pán)使用履帶式有哪些好處()。A、成本較低移動(dòng)靈活B、抓地力強(qiáng)越障性能好C、運(yùn)動(dòng)速度高運(yùn)動(dòng)噪聲小D、負(fù)重性能好相比于輪式底盤(pán)與腿足式底盤(pán)耗能小答案:B102.以下哪項(xiàng)是深度學(xué)習(xí)在計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要突破?A、支持向量機(jī)B、決策樹(shù)C、深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)D、隨機(jī)森林答案:C103.就本質(zhì)而言,遺傳算法可以提高算法的效率,算法類(lèi)型是()。A、分布式B、智能C、迭代D、并行答案:D104.在機(jī)器學(xué)習(xí)中,正則化項(xiàng)主要用于控制什么?A、模型的偏差B、模型的方差C、模型的計(jì)算成本D、模型的數(shù)據(jù)預(yù)處理步驟答案:B105.人工智能中的“模型泛化能力”是指什么?A、模型在訓(xùn)練集上的表現(xiàn)B、模型在測(cè)試集上的表現(xiàn)C、模型在新數(shù)據(jù)上的表現(xiàn)D、模型在訓(xùn)練過(guò)程中的學(xué)習(xí)能力答案:C106.下列不在人工智能系統(tǒng)的知識(shí)包含的4個(gè)要素中()。A、事實(shí)B、規(guī)則C、控制D、關(guān)系答案:D107.以下哪個(gè)應(yīng)用不適合使用循環(huán)神經(jīng)網(wǎng)絡(luò)完成?()A、看圖說(shuō)話(huà)B、機(jī)器翻譯C、社交網(wǎng)絡(luò)用戶(hù)情感分類(lèi)D、從一張合影照片找到特定的人答案:D108.在自然語(yǔ)言處理任務(wù)中,哪種模型結(jié)構(gòu)最適合處理文本分類(lèi)問(wèn)題:A、CNNB、GANC、BERTD、RNN答案:C109.在深度學(xué)習(xí)中,Dropout技術(shù)主要用于什么?A、防止過(guò)擬合B、增加模型復(fù)雜度C、加速模型訓(xùn)練D、提高模型準(zhǔn)確率答案:A110.下列不屬于Keras的核心模塊的是():A、有激活函數(shù)B、損失函數(shù)C、濾波器D、正則化器答案:C111.模型選擇部分包含的模型分為()與回歸兩類(lèi)。A、均值B、分類(lèi)C、眾數(shù)D、方差答案:B112.在計(jì)算機(jī)視覺(jué)中,邊緣檢測(cè)通常用于檢測(cè)什么?A、圖像的顏色B、圖像的紋理C、圖像中的對(duì)象邊界D、圖像的亮度答案:C113.在Transformer模型中,自注意力機(jī)制的主要作用是什么?A、捕獲序列中任意位置間的依賴(lài)關(guān)系B、提高模型的泛化能力C、加快模型的訓(xùn)練速度D、減少模型的參數(shù)量答案:A114.下列選項(xiàng)中,不是人工智能的基礎(chǔ)設(shè)施的是?A、CPU服務(wù)器B、GPU服務(wù)器C、專(zhuān)用芯片D、游戲顯卡答案:D115.以下哪個(gè)是計(jì)算機(jī)視覺(jué)中用于圖像分割的常用技術(shù)?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、U-NetD、長(zhǎng)短期記憶網(wǎng)絡(luò)答案:C116.以下哪個(gè)不是處理缺失值常用的方法?A、刪除含有缺失值的行或列B、使用均值、中位數(shù)或眾數(shù)填充C、使用機(jī)器學(xué)習(xí)模型預(yù)測(cè)填充D、將缺失值替換為0答案:D117.在數(shù)據(jù)預(yù)處理階段,為什么要進(jìn)行特征縮放?A、為了提高模型的精度B、為了減少數(shù)據(jù)的存儲(chǔ)需求C、為了使不同特征的取值范圍相近,便于模型處理D、為了增加數(shù)據(jù)的維度答案:C118.COCO數(shù)據(jù)集是由()出資建設(shè)的。A、百度B、微軟C、谷歌D、阿里巴巴答案:B119.喚醒功能作為麥克風(fēng)陣列技術(shù)中重要的一環(huán),誤喚醒率指標(biāo)是低于()次/天?A、1次B、2次C、3次D、0.5次答案:A120.對(duì)“我愛(ài)北京天安門(mén)”進(jìn)行詞性標(biāo)注的結(jié)果是()。A、我/r愛(ài)/v北京/n天安門(mén)/nB、我/n愛(ài)/v北京/n天安門(mén)/nC、我/r愛(ài)/v北京天安門(mén)/nD、我/n愛(ài)/v北京天安門(mén)/n答案:C121.半導(dǎo)體只讀存儲(chǔ)器(ROM)與半導(dǎo)體隨機(jī)存儲(chǔ)器(RAM)的主要區(qū)別在于A、ROM可以永久保存信息,RAM在掉電后信息會(huì)丟失B、ROM掉電后,信息會(huì)丟失,RAM則不會(huì)C、ROM是內(nèi)存儲(chǔ)器,RAM是外存儲(chǔ)器D、RAM是內(nèi)存儲(chǔ)器,ROM是外存儲(chǔ)器答案:A122.()是指對(duì)于數(shù)據(jù)采集、數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注到數(shù)據(jù)交付整個(gè)項(xiàng)目生命周期每個(gè)階段進(jìn)行識(shí)別、度量、監(jiān)控、預(yù)警等一系列管理措施。A、數(shù)據(jù)治理B、數(shù)據(jù)分割C、數(shù)據(jù)監(jiān)控D、數(shù)據(jù)清洗答案:A123.下列關(guān)于TTS說(shuō)法正確的是()。A、是語(yǔ)音合成的專(zhuān)門(mén)術(shù)語(yǔ)B、是加密貨幣的專(zhuān)業(yè)術(shù)語(yǔ)C、是圖片識(shí)別的專(zhuān)業(yè)術(shù)語(yǔ)D、是醫(yī)學(xué)領(lǐng)域?qū)I(yè)術(shù)語(yǔ)答案:A124.()適用于較長(zhǎng)距離和較大物體的探測(cè)。A、電磁式傳感器B、超聲波傳感器C、光反射式傳感器D、靜電容式傳感器答案:B125.由C++源程序文件編譯而成的目標(biāo)文件的默認(rèn)擴(kuò)展名為A、cppB、exeC、objD、Iik答案:C126.專(zhuān)家系統(tǒng)中用于回答用戶(hù)提出的問(wèn)題,解釋系統(tǒng)的推理過(guò)程的是()。A、知識(shí)庫(kù)B、數(shù)據(jù)庫(kù)C、推理機(jī)D、解釋機(jī)構(gòu)答案:D127.以下哪些方法可以用來(lái)提高模型的訓(xùn)練效率?A、使用GPU加速計(jì)算B、批量歸一化(BatchNormalization)C、減少模型層數(shù)D、使用Adam優(yōu)化器代替SGD答案:A128.專(zhuān)家系統(tǒng)的推理機(jī)的最基本的方式是()。A、直接推理和間接推理B、正向推理和反向推理C、邏輯推理和非邏輯推理D、準(zhǔn)確推理和模糊推理答案:B129.自然語(yǔ)言處理難點(diǎn)目前有四大類(lèi),下列選項(xiàng)中不是其中之一的是A、機(jī)器性能B、語(yǔ)言歧義性C、知識(shí)依賴(lài)D、語(yǔ)境答案:A130.下面關(guān)于機(jī)器人目前發(fā)展進(jìn)化說(shuō)法錯(cuò)誤的是()。A、無(wú)法做到“頓悟”B、無(wú)法實(shí)現(xiàn)從“量變”到“質(zhì)變”C、仍舊標(biāo)準(zhǔn)化程序的學(xué)習(xí)D、具有自我意識(shí)答案:C131.以下哪些是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變種,旨在改進(jìn)長(zhǎng)期依賴(lài)問(wèn)題?A、LSTM(LongShort-TermMemory)B、GRU(GatedRecurrentUnit)C、VanillaRNND、Transformer答案:A132.需求公司是數(shù)據(jù)標(biāo)注規(guī)則的()。A、橋梁B、起始者C、定制者D、終結(jié)者答案:C133.在訓(xùn)練大模型時(shí),批量歸一化(BatchNormalization)有什么作用?A、加速學(xué)習(xí)過(guò)程B、增加模型容量C、減小梯度爆炸D、提高模型魯棒性答案:A134.在自然語(yǔ)言處理中,對(duì)話(huà)系統(tǒng)的評(píng)估指標(biāo)不包括:A、BLEU分?jǐn)?shù)B、對(duì)話(huà)輪次C、用戶(hù)滿(mǎn)意度D、參數(shù)數(shù)量答案:D135.深度學(xué)習(xí)中的自編碼器主要用于解決什么問(wèn)題?A、圖像去噪B、文本生成C、語(yǔ)音識(shí)別D、無(wú)監(jiān)督學(xué)習(xí)答案:D136.在自然語(yǔ)言處理中,處理多義詞和同義詞問(wèn)題的技術(shù)是:A、詞袋模型B、詞嵌入模型C、one-hot編碼D、TF-IDF答案:B137.命名實(shí)體識(shí)別常用技術(shù)有那些()。①基于規(guī)則和詞典的方法②基于統(tǒng)計(jì)的方法③基于深度學(xué)習(xí)的方法A、①③B、①②C、②③D、①②③答案:D138.什么是LSTM(長(zhǎng)短期記憶網(wǎng)絡(luò))?A、一種用于特征選擇的算法B、一種卷積神經(jīng)網(wǎng)絡(luò)C、一種RNN的變體,用于處理序列數(shù)據(jù)D、一種集成學(xué)習(xí)算法答案:C139.在深度學(xué)習(xí)領(lǐng)域,Dropout層的主要作用是為了:A、減少過(guò)擬合現(xiàn)象B、提高模型的運(yùn)行速度C、增加模型的復(fù)雜度以便抓取更多細(xì)節(jié)D、平衡數(shù)據(jù)集類(lèi)別分布不均的問(wèn)題答案:A140.在監(jiān)督學(xué)習(xí)中,損失函數(shù)的作用是什么?A、衡量模型的準(zhǔn)確性B、衡量模型預(yù)測(cè)與真實(shí)值之間的差異C、控制模型的復(fù)雜度D、優(yōu)化模型參數(shù)答案:B141.由一些已編寫(xiě)好的可編輯電腦游戲系統(tǒng)或者一些交互式實(shí)時(shí)圖像應(yīng)用程序的核心組件構(gòu)成,其目的在于讓游戲設(shè)計(jì)者能容易和快速地做出游戲程式的部件是()。A、游戲搜索B、游戲框架C、游戲引擎D、游戲構(gòu)架答案:C142.在機(jī)器學(xué)習(xí)中,梯度提升機(jī)(GradientBoostingMachine,GBM)主要被設(shè)計(jì)來(lái)解決什么問(wèn)題?A、大規(guī)模數(shù)據(jù)下的分類(lèi)問(wèn)題B、小規(guī)模數(shù)據(jù)下的回歸問(wèn)題C、特征選擇D、異常值檢測(cè)答案:B143.以下哪個(gè)不是文本表示學(xué)習(xí)的常見(jiàn)方法?A、詞袋模型B、TF-IDFC、Word2VecD、K-means聚類(lèi)答案:D144.在命名實(shí)體識(shí)別(NamedEntityRecognition,NER)任務(wù)中,通常要識(shí)別哪些類(lèi)型的實(shí)體?A、動(dòng)詞和形容詞B、人名、地名和機(jī)構(gòu)名C、句子和段落D、文本中的主題和觀點(diǎn)答案:B145.深度學(xué)習(xí)的起源可以追溯到哪個(gè)世紀(jì)?A、20世紀(jì)40年代B、20世紀(jì)50年代C、20世紀(jì)60年代D、20世紀(jì)70年代答案:A146.哪個(gè)查詢(xún)可以直接將命令發(fā)送到ODBC數(shù)據(jù)庫(kù),利用它可以檢索或更改記錄()。A、聯(lián)合出現(xiàn)B、傳遞查詢(xún)C、數(shù)據(jù)定義查詢(xún)D、子查詢(xún)答案:B147.在機(jī)器學(xué)習(xí)中,樸素貝葉斯分類(lèi)器基于什么假設(shè)?A、特征之間相互獨(dú)立B、特征之間存在復(fù)雜的交互作用C、模型是線性的D、所有以上答案:A148.NLG實(shí)現(xiàn)步驟中的文本結(jié)構(gòu)采用的是什么結(jié)構(gòu)?()A、圖形B、樹(shù)形層次化C、線性D、以上都不是答案:B149.圖像與灰度直方圖間的對(duì)應(yīng)關(guān)系是()。A、一一對(duì)應(yīng)B、多對(duì)一C、一對(duì)多D、多對(duì)多答案:B150.模型微調(diào)中的提示學(xué)習(xí)是指:A、提供少量樣本進(jìn)行學(xué)習(xí)B、使用提示引導(dǎo)模型學(xué)習(xí)特定任務(wù)C、通過(guò)重復(fù)提示加強(qiáng)記憶D、提示模型忽略無(wú)關(guān)信息答案:B151.在深度學(xué)習(xí)中,Dropout是一種常用的技術(shù),它主要用于:A、加速訓(xùn)練過(guò)程B、防止過(guò)擬合C、增加模型的復(fù)雜度D、提供非線性建模能力答案:B152.()可能是最廣泛、最普遍的一種數(shù)據(jù)標(biāo)注類(lèi)型。A、圖像標(biāo)注B、數(shù)字標(biāo)注C、問(wèn)號(hào)標(biāo)注D、逗號(hào)標(biāo)注答案:A153.將成績(jī)?cè)?0分以上的記錄找出后放在一個(gè)新表中,比較合適的查詢(xún)是()。A、刪除查詢(xún)B、生成表查詢(xún)C、追加查詢(xún)D、更新查詢(xún)答案:B154.以下不屬于移動(dòng)通信范疇的是()。A、以太網(wǎng)B、Wi-FiC、藍(lán)牙D、NB-IOT答案:A155.以下哪一項(xiàng)是生成式對(duì)抗網(wǎng)絡(luò)(GAN)的主要應(yīng)用之一?A、數(shù)據(jù)分類(lèi)B、文本生成C、圖像生成D、語(yǔ)音識(shí)別答案:C156.在自然語(yǔ)言處理任務(wù)中,BERT模型的主要優(yōu)勢(shì)是:A、低資源消耗B、快速訓(xùn)練速度C、強(qiáng)大的上下文理解能力D、高度的模型壓縮能力答案:C157.MIT教授TomasoPoggio明確指出,過(guò)去15年人工智能取得的成功,主要是因?yàn)椋ǎ、機(jī)器學(xué)習(xí)B、計(jì)算機(jī)視覺(jué)C、語(yǔ)音識(shí)別D、博弈論答案:A158.在機(jī)器學(xué)習(xí)中,交叉驗(yàn)證主要用于什么?A、提高模型復(fù)雜度B、評(píng)估模型性能C、增加數(shù)據(jù)多樣性D、優(yōu)化模型參數(shù)答案:B159.在查詢(xún)?cè)O(shè)計(jì)視圖中().A、只能添加數(shù)據(jù)庫(kù)表B、可以添加數(shù)據(jù)庫(kù)表,也可以添加查詢(xún)C、只能添加查詢(xún)D、以上說(shuō)法都不對(duì)答案:B160.支持向量機(jī)SVM是一種()算法。A、只有有限個(gè)間斷點(diǎn)的連續(xù)函數(shù)B、大樣本下的統(tǒng)計(jì)機(jī)器學(xué)習(xí)C、大樣本下的實(shí)例機(jī)器學(xué)習(xí)答案:A161.以下哪項(xiàng)不是自然語(yǔ)言處理進(jìn)入二十一世紀(jì)獲得的成果?()A、隱馬爾可夫模型B、序列到序列模型C、注意力機(jī)制D、預(yù)訓(xùn)練語(yǔ)言模型答案:A162.向數(shù)據(jù)表中插入一條記錄用以下哪一項(xiàng)()A、CREATEB、INSERTC、SAVED、UPDATE答案:B163.以下哪個(gè)不是數(shù)據(jù)預(yù)處理中的離散化方法?A、等寬分箱B、等頻分箱C、聚類(lèi)分箱D、標(biāo)準(zhǔn)化答案:D164.以下哪個(gè)不是深度學(xué)習(xí)中常用的序列模型?A、LSTMB、GRUC、NND、Transformer答案:C165.視覺(jué)slam中,()不是特征點(diǎn)法的優(yōu)點(diǎn)。A、對(duì)光照、運(yùn)動(dòng)不敏感,比較穩(wěn)定B、魯棒性好C、能構(gòu)建稠密地圖D、方案成熟答案:C166.以下哪項(xiàng)用來(lái)排序()A、ORDEREDBYB、ORDERBYC、GROUPBYD、GROUPEDBY答案:B167.什么是AdaBoost?A、一種降維技術(shù)B、一種集成學(xué)習(xí)算法C、一種優(yōu)化算法D、一種特征選擇算法答案:B168.Al的英文縮寫(xiě)是A、utomaticInteIIigenceB、ArtificialInteIIigenceC、AutomaticInformationD、ArtificiaIInformation答案:B169.在機(jī)器學(xué)習(xí)中,集成學(xué)習(xí)的主要思想是什么?A、使用單個(gè)模型進(jìn)行預(yù)測(cè)B、結(jié)合多個(gè)模型的預(yù)測(cè)結(jié)果以提高性能C、通過(guò)增加數(shù)據(jù)來(lái)提高模型性能D、通過(guò)減少特征數(shù)量來(lái)提高模型性能答案:B170.智能機(jī)器人可以根據(jù)()得到信息。A、思維能力B、行為能力C、感知能力D、學(xué)習(xí)能力答案:C171.在圖像識(shí)別任務(wù)中,通常使用哪種類(lèi)型的神經(jīng)網(wǎng)絡(luò)?A、CNN(卷積神經(jīng)網(wǎng)絡(luò))B、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))C、LSTM(長(zhǎng)短時(shí)記憶網(wǎng)絡(luò))D、決策樹(shù)答案:A172.大數(shù)據(jù)所搜集到的用戶(hù)群體都是()。A、具有線上行為的用戶(hù)B、具有線下行為的用戶(hù)C、參與調(diào)研的用戶(hù)D、不參與調(diào)研的用戶(hù)答案:A173.數(shù)據(jù)標(biāo)注的最終目的是什么?A、提供訓(xùn)練數(shù)據(jù)B、提高數(shù)據(jù)質(zhì)量C、減少人工干預(yù)D、所有以上答案:D174.不同的計(jì)算機(jī),其指令系統(tǒng)也不相同,這主要取決于()A、所用的CPUB、所用的操作系統(tǒng)C、所用的程序設(shè)計(jì)語(yǔ)言D、系統(tǒng)的總體結(jié)構(gòu)答案:A175.在自然語(yǔ)言處理中,句法分析(SyntacticAnalysis)的目的是什么?A、確定句子的語(yǔ)義。B、分析句子的結(jié)構(gòu)。C、生成句子的摘要。D、判斷句子的情感。答案:B176.以下關(guān)于人工智能概念的描述中,錯(cuò)誤的是()。A、人工智能英文翻譯是ArtificialintelligenceB、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對(duì)人的意識(shí)、思維過(guò)程進(jìn)行模擬答案:C177.文本蘊(yùn)含(TextualEntailment)任務(wù)主要用于判斷什么?A、兩段文本是否相關(guān)B、一段文本是否蘊(yùn)含另一段文本的信息C、文本的情感傾向D、文本的主題分類(lèi)答案:B178.在自然語(yǔ)言處理中,用于生成文本的深度學(xué)習(xí)模型是:A、SVMB、GANC、NND、KNN答案:B179.下列哪個(gè)不是檢測(cè)模型的評(píng)價(jià)指標(biāo)?A、mAPB、APC、IoUD、KL散度答案:D180.安裝jieba分詞工具的命令是哪個(gè)()。A、pipinstalljiebaB、importjiebaC、jieba.versionD、jieba.cut答案:A181.C++語(yǔ)言編譯系統(tǒng)是()。A、系統(tǒng)軟件B、操作系統(tǒng)C、應(yīng)用軟件D、用戶(hù)文件答案:A182.多媒體計(jì)算機(jī)系統(tǒng)是將多媒體信息和()交互式控制相結(jié)合。A、計(jì)算機(jī)B、程序C、軟件D、硬件系統(tǒng)答案:A183.市場(chǎng)上某商品來(lái)自?xún)蓚€(gè)工廠,它們市場(chǎng)占有率分別為60%和40%,有兩人各自買(mǎi)一件,則買(mǎi)到的來(lái)自不同工廠之概率為()。A、0.5B、0.24C、0.48D、0.3答案:C184.在自然語(yǔ)言處理中,用于優(yōu)化搜索引擎查詢(xún)結(jié)果相關(guān)性的技術(shù)是:A、序列標(biāo)注B、文本摘要C、語(yǔ)義搜索D、實(shí)體識(shí)別答案:C185.屬于“人造智能”,具有意識(shí),達(dá)到或超越人類(lèi)智慧水平的人工看能稱(chēng)為()A、高人工智能B、低人工智能C、強(qiáng)人工智能D、弱人工智能答案:C186.光源的作用,就是獲得對(duì)比鮮明的圖像,具體不包括()。A、將感興趣部分和其他部分的灰度值差異加大B、盡量消隱不感興趣部分C、降低信噪比,利于圖像處理D、減少因材質(zhì)照射角度對(duì)成像的影響答案:C187.專(zhuān)家系統(tǒng)是以()為基礎(chǔ),推理為核心的系統(tǒng)。A、專(zhuān)家B、軟件C、問(wèn)題D、知識(shí)答案:D188.什么是機(jī)器學(xué)習(xí)的定義?A、計(jì)算機(jī)模擬人類(lèi)思維過(guò)程B、計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)性能C、計(jì)算機(jī)執(zhí)行預(yù)先編程的任務(wù)D、計(jì)算機(jī)執(zhí)行重復(fù)性任務(wù)答案:B189.在人工智能項(xiàng)目中,數(shù)據(jù)預(yù)處理的主要目的是什么?A、減少數(shù)據(jù)存儲(chǔ)空間B、提高數(shù)據(jù)質(zhì)量,減少噪聲和異常值C、增加數(shù)據(jù)維度D、改變數(shù)據(jù)的分布答案:B190.對(duì)于時(shí)間序列數(shù)據(jù),以下哪種方法不是常見(jiàn)的預(yù)處理步驟?A、平滑處理B、缺失值填充C、標(biāo)準(zhǔn)化D、周期性分析答案:D191.在自然語(yǔ)言處理中,文本向量化的一個(gè)主要技術(shù)是:A、卷積B、循環(huán)網(wǎng)絡(luò)C、Word2VecD、Transformer答案:C192.以下哪個(gè)是監(jiān)督學(xué)習(xí)中的典型任務(wù)?A、聚類(lèi)B、回歸C、關(guān)聯(lián)規(guī)則學(xué)習(xí)D、異常檢測(cè)答案:B193.數(shù)據(jù)和程序存儲(chǔ)在磁盤(pán)上的形式是()A、集合B、文件C、目錄D、記錄答案:B194.在機(jī)器學(xué)習(xí)中,支持向量機(jī)(SVM)的核技巧(KernelTrick)主要用于解決什么問(wèn)題?A、加快算法的運(yùn)行速度B、使線性算法能夠處理非線性問(wèn)題C、減少模型的內(nèi)存使用D、簡(jiǎn)化模型的結(jié)構(gòu)答案:B195.Fume采用了三層架構(gòu),分別為agent,collector和()A、MapB、storageC、ShuffleD、Hash答案:B196.下列哪一種技術(shù)可以使深度神經(jīng)網(wǎng)絡(luò)對(duì)于對(duì)抗樣本具有一定魯棒性?A、數(shù)據(jù)增廣B、對(duì)抗訓(xùn)練C、dropoutD、以上都是答案:B197.LSTM的遺忘門(mén)使用的是什么激活函數(shù)()A、SigmoidB、tanhC、ReLUD、ropOut答案:A198.在深度學(xué)習(xí)模型訓(xùn)練中,動(dòng)態(tài)學(xué)習(xí)率調(diào)整的效果是:A、加快模型訓(xùn)練速度B、提高模型穩(wěn)定性C、減少計(jì)算資源消耗D、防止梯度爆炸答案:A199.在AI發(fā)展歷史中,哪個(gè)概念是由塞繆爾·阿瑟·阿西莫夫提出的?A、機(jī)器人三定律B、圖靈測(cè)試C、感知機(jī)D、神經(jīng)網(wǎng)絡(luò)答案:A200.深度學(xué)習(xí)模型在訓(xùn)練過(guò)程中,驗(yàn)證集的主要作用是什么?A、調(diào)整模型參數(shù)B、評(píng)估模型性能C、增加數(shù)據(jù)多樣性D、優(yōu)化模型結(jié)構(gòu)答案:B201.以下哪項(xiàng)是Rasa-NLU的功能?()A、識(shí)別對(duì)話(huà)行為B、識(shí)別對(duì)話(huà)狀態(tài)C、識(shí)別用戶(hù)意圖D、對(duì)話(huà)策略學(xué)習(xí)答案:C202.在生成對(duì)抗網(wǎng)絡(luò)(GAN)中,生成器和判別器通常分別是什么類(lèi)型的神經(jīng)網(wǎng)絡(luò)?A、生成器是卷積神經(jīng)網(wǎng)絡(luò),判別器是全連接神經(jīng)網(wǎng)絡(luò)B、生成器和判別器都是卷積神經(jīng)網(wǎng)絡(luò)C、生成器是全連接神經(jīng)網(wǎng)絡(luò),判別器是卷積神經(jīng)網(wǎng)絡(luò)D、生成器和判別器的類(lèi)型沒(méi)有固定要求答案:D203.弱人工智能是指僅僅模擬人類(lèi)大腦的(),強(qiáng)人工智能是指其本身就是一個(gè)()。A、心智;智能B、運(yùn)作;大腦C、智能;程序D、智能;心智答案:D204.在自然語(yǔ)言處理中,語(yǔ)言模型的主要作用是:A、生成文本B、識(shí)別語(yǔ)音C、翻譯語(yǔ)言D、預(yù)測(cè)下一個(gè)詞答案:D205.關(guān)于python函數(shù)以下說(shuō)法正確的是()A、函數(shù)形參不需要聲明其類(lèi)型B、如果函數(shù)不需要接受任何參數(shù),則函數(shù)名后?的括號(hào)也?需保留C、函數(shù)必須指明其返回值類(lèi)型D、函數(shù)體必須和def關(guān)鍵字對(duì)齊答案:A206.在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是:A、限制輸出值的范圍B、加速收斂過(guò)程C、引入非線性特性D、控制權(quán)重更新規(guī)則答案:C207.關(guān)于實(shí)例學(xué)習(xí),下述哪種說(shuō)法是正確的是()。A、生成知識(shí)的正確性有保證B、需要很多先驗(yàn)知識(shí)C、歸納推理D、生成的知識(shí)的正確具有不確定性答案:C208.將聲音轉(zhuǎn)變?yōu)閿?shù)字化信息,又將數(shù)字化信息變換為聲音的設(shè)備是()。A、聲卡B、音響C、音箱D、PCI卡答案:A209.Image模塊中,打開(kāi)圖片的函數(shù)是()。A、open()B、read()C、save()D、show答案:A210.什么是精確度(Precision)?A、正確預(yù)測(cè)為正例的樣本數(shù)與所有預(yù)測(cè)為正例的樣本數(shù)的比率B、正確預(yù)測(cè)為正例的樣本數(shù)與所有真正為正例的樣本數(shù)的比率C、正確預(yù)測(cè)為正例的樣本數(shù)與所有樣本數(shù)的比率D、正確預(yù)測(cè)為正例的樣本數(shù)與所有真實(shí)為負(fù)例的樣本數(shù)的比率答案:A211.人工智能中的“模型部署”是指什么?A、模型訓(xùn)練B、模型評(píng)估C、將模型應(yīng)用到實(shí)際環(huán)境中D、模型解釋答案:C212.信息從輸入層到輸出層單向傳輸,學(xué)習(xí)訓(xùn)練時(shí)將學(xué)習(xí)信號(hào)按連接通路返回以修改各層神經(jīng)元連接權(quán)重的神經(jīng)網(wǎng)絡(luò)是()。A、Kohonen神經(jīng)網(wǎng)絡(luò)B、P神經(jīng)網(wǎng)絡(luò)C、單層感知器D、多層感知器答案:B213.DETR中的Transformer編碼器主要用于編碼什么?A、關(guān)鍵點(diǎn)B、圖像特征C、對(duì)象查詢(xún)D、前景和背景答案:B214.我國(guó)第一臺(tái)電子計(jì)算機(jī)于那一年試制成功()A、1953B、1958C、1964D、1978答案:B215.人工智能的本質(zhì)是()。A、取代人類(lèi)智能B、電腦萬(wàn)能C、人類(lèi)智慧的倒退D、對(duì)人類(lèi)智能的模擬答案:D216.要得到最后一句SELECT查詢(xún)到的總行數(shù),可以使用的函數(shù)是()A、FOUND_ROWSB、LAST_ROWSC、ROW_COUNTD、LAST_INSERT_ID答案:A217.在強(qiáng)化學(xué)習(xí)中,什么是值迭代?A、依次更新價(jià)值函數(shù)和策略B、只更新策略而不更新價(jià)值函數(shù)C、只更新價(jià)值函數(shù)而不更新策略D、通過(guò)迭代計(jì)算狀態(tài)值函數(shù)或動(dòng)作值函數(shù)來(lái)優(yōu)化策略答案:D218.對(duì)于大模型而言,以下哪個(gè)因素對(duì)模型的訓(xùn)練速度影響最大?A、模型的深度B、批量大小C、優(yōu)化器的選擇D、數(shù)據(jù)集的下載速度答案:B219.在計(jì)算機(jī)視覺(jué)中,目標(biāo)檢測(cè)(ObjectDetection)與目標(biāo)識(shí)別(ObjectRecognition)的主要區(qū)別是什么?A、目標(biāo)檢測(cè)需要確定目標(biāo)的位置和類(lèi)別,而目標(biāo)識(shí)別只需要確定目標(biāo)的類(lèi)別。B、目標(biāo)檢測(cè)需要處理圖像中的多個(gè)目標(biāo),而目標(biāo)識(shí)別只需要處理單個(gè)目標(biāo)。C、目標(biāo)檢測(cè)需要使用特定的特征提取器,而目標(biāo)識(shí)別不需要。D、所有以上答案。答案:D220.下列哪個(gè)系統(tǒng)屬于新型專(zhuān)家系統(tǒng)()。A、多媒體專(zhuān)家系統(tǒng)B、實(shí)時(shí)專(zhuān)家系統(tǒng)C、軍事專(zhuān)家系統(tǒng)D、分布式專(zhuān)家系統(tǒng)答案:D221.語(yǔ)言的基本單位是()。A、句子B、詞匯C、詞組D、語(yǔ)法答案:B222.在自然語(yǔ)言處理中,高效模型微調(diào)的一個(gè)方法是:A、增加訓(xùn)練數(shù)據(jù)B、增加模型深度C、自適應(yīng)微調(diào)D、增加模型寬度答案:C223.目前,基本的游戲人工智能技術(shù)有()A、搜索技術(shù)和遺傳算法B、專(zhuān)家系統(tǒng)和CUSUM算法C、USUM算法和神經(jīng)網(wǎng)絡(luò)D、多智能體和多媒體技術(shù)答案:A224.在自然語(yǔ)言處理中,依存關(guān)系(DependencyRelations)描述的是什么?A、單詞之間的語(yǔ)法關(guān)系。B、句子中名詞短語(yǔ)的結(jié)構(gòu)。C、動(dòng)詞和賓語(yǔ)之間的關(guān)系。D、文本中的段落結(jié)構(gòu)。答案:A225.數(shù)據(jù)可視化技術(shù)可以將所有數(shù)據(jù)的特性通過(guò)()的方式展現(xiàn)出來(lái)A、文字B、圖C、表格D、樹(shù)答案:B226.使用LaBelSmoothing好處是什么?()A、抵抗過(guò)擬合B、增加網(wǎng)絡(luò)特征提取能力C、加快模型收斂速度D、抵抗梯度消失答案:A227.在自然語(yǔ)言處理中,用于改善模型對(duì)上下文理解能力的方法是:A、增加數(shù)據(jù)集的大小B、使用雙向編碼器C、采用更復(fù)雜的模型結(jié)構(gòu)D、增加模型的訓(xùn)練輪數(shù)答案:B228.AI在運(yùn)維實(shí)踐中的主要作用是什么?A、提升效率B、減少故障時(shí)間C、優(yōu)化用戶(hù)體驗(yàn)D、所有以上答案:D229.在自然語(yǔ)言處理中,注意力機(jī)制(AttentionMechanism)主要用于解決什么問(wèn)題?A、文本分類(lèi)的準(zhǔn)確性B、模型訓(xùn)練的速度C、序列到序列模型中的信息對(duì)齊問(wèn)題D、命名實(shí)體識(shí)別的邊界確定答案:C230.哪個(gè)是計(jì)算機(jī)視覺(jué)中用于評(píng)估圖像分割模型性能的常用指標(biāo)?A、準(zhǔn)確率B、IoU(交并比)C、BLEU分?jǐn)?shù)D、ROC曲線答案:B231.tensorflow中的tf.nn.conv2d()的函數(shù),其作用是()A、圖像輸入B、進(jìn)行卷積C、進(jìn)行池化D、圖像輸出答案:B232.機(jī)器翻譯屬于()領(lǐng)域的應(yīng)用。A、自然語(yǔ)言處理B、搜索技術(shù)C、專(zhuān)家系統(tǒng)D、數(shù)據(jù)挖掘答案:A233.以下哪個(gè)不是數(shù)據(jù)預(yù)處理的主要任務(wù)?A、特征選擇B、數(shù)據(jù)編碼C、數(shù)據(jù)存儲(chǔ)D、數(shù)據(jù)降維答案:C234.Anaconda集成的()是一個(gè)基于網(wǎng)頁(yè)的交互式代碼編輯軟件,可被應(yīng)用于代碼開(kāi)發(fā)、文檔編寫(xiě)、代碼運(yùn)行和結(jié)果展示的全過(guò)程計(jì)算。()A、IDLEB、SpyderC、PromptD、JupyterNotebook答案:D235.機(jī)器人的運(yùn)動(dòng)學(xué)方程只涉及()的討論。A、靜態(tài)位置B、速度C、加速度D、受力答案:A236.()是圖像處理中的一項(xiàng)關(guān)鍵技術(shù),一直都受到人們的高度重視。A、圖像聚合B、數(shù)據(jù)離散C、圖像分割D、圖像解析答案:C237.在圖像識(shí)別與處理中,面部識(shí)別通常使用的是哪種技術(shù)?A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)B、邏輯回歸C、支持向量機(jī)(SVM)D、K均值聚類(lèi)答案:A238.神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練過(guò)程的主要目的是讓損失函數(shù)取得如下()結(jié)果。A、損失函數(shù)值盡可能大B、損失函數(shù)方差值盡可能小C、損失函數(shù)值盡可能小D、損失函數(shù)方差值盡可能大答案:C239.在程序中需要使用math庫(kù)中的gcd()函數(shù)計(jì)算兩數(shù)的最大公約數(shù),已知調(diào)用語(yǔ)句為:x=gcd(a,b),那么導(dǎo)入的語(yǔ)句是()。A、importmathB、importgcdC、frommathimportgcdD、fromgcdimportmath答案:C240.下列不屬于激活函數(shù)的性質(zhì)的是:()。A、單調(diào)性B、可微性C、線性D、非線性答案:C241.根據(jù)新數(shù)據(jù)集的大小和數(shù)據(jù)集的相似程度,下列選項(xiàng)不屬于遷移學(xué)習(xí)方法情況的是的是()。A、小數(shù)據(jù)集、相似數(shù)據(jù)B、小數(shù)據(jù)集、不相似數(shù)據(jù)C、大數(shù)據(jù)集、相似數(shù)據(jù)D、數(shù)據(jù)集、相似數(shù)據(jù)答案:D242.下面是數(shù)據(jù)變換的策略是()。A、數(shù)據(jù)分析B、特征構(gòu)造C、模式識(shí)別D、數(shù)據(jù)記錄答案:B243.張量并行在深度學(xué)習(xí)中主要用于解決:A、模型訓(xùn)練速度慢的問(wèn)題B、數(shù)據(jù)預(yù)處理的問(wèn)題C、模型過(guò)大無(wú)法放入單個(gè)GPU的問(wèn)題D、數(shù)據(jù)集過(guò)小的問(wèn)題答案:C244.以下哪種優(yōu)化算法通常用于深度學(xué)習(xí)模型的訓(xùn)練?A、線性回歸B、K-means聚類(lèi)C、梯度下降法及其變種D、PageRank算法答案:C245.下列選項(xiàng)中,不屬于計(jì)算機(jī)病毒特征的是A、破壞性B、潛伏性C、傳染性D、免疫性答案:D246.深度學(xué)習(xí)中,什么是梯度爆炸問(wèn)題?A、模型梯度在訓(xùn)練過(guò)程中逐漸增大B、模型梯度在訓(xùn)練過(guò)程中逐漸減小C、模型梯度在訓(xùn)練過(guò)程中保持不變D、模型梯度與損失函數(shù)無(wú)關(guān)答案:A247.在Access數(shù)據(jù)庫(kù)系統(tǒng)中,不是數(shù)據(jù)庫(kù)對(duì)象的是().A、報(bào)表B、宏C、數(shù)據(jù)庫(kù)D、窗體答案:C248.人工智能誕生于()。A、達(dá)特茅斯(Dartmouth)B、倫敦(London)C、紐約(NewYork)D、拉斯維加斯(LasVegas)答案:A249.量子計(jì)算的理論模型是()。A、希爾伯特機(jī)B、哥德?tīng)枡C(jī)C、通用圖靈機(jī)D、通用羅素機(jī)答案:C250.群體智能的優(yōu)點(diǎn)體現(xiàn)為()。A、更少的感知限制B、更大的作業(yè)范圍C、更強(qiáng)的完成任務(wù)能力D、以上都是答案:D251.以下哪項(xiàng)是強(qiáng)化學(xué)習(xí)的主要特征?A、從大量數(shù)據(jù)中學(xué)習(xí)B、在有限的環(huán)境中進(jìn)行試錯(cuò)C、通過(guò)人類(lèi)指導(dǎo)進(jìn)行學(xué)習(xí)D、使用預(yù)定義規(guī)則執(zhí)行任務(wù)答案:B252.數(shù)據(jù)清洗通常不包括以下哪個(gè)步驟?A、處理缺失值B、標(biāo)準(zhǔn)化數(shù)據(jù)C、去除重復(fù)值D、糾正錯(cuò)誤數(shù)據(jù)答案:B253.在自然語(yǔ)言處理任務(wù)中,哪種模型最適合實(shí)現(xiàn)情感分析:A、TransformerB、CNNC、RNND、GAN答案:A254.在生成式人工智能模型中,用于改進(jìn)文本生成質(zhì)量的技術(shù)是:A、數(shù)據(jù)增強(qiáng)B、模型壓縮C、注意力機(jī)制D、權(quán)重初始化答案:C255.依存句法分析(DependencyParsing)主要用于分析什么?A、句子的詞頻分布B、句子的語(yǔ)義角色C、句子中單詞之間的依存關(guān)系D、句子的情感傾向答案:C256.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是?A、BoostingB、StackingC、BaggingD、Marking答案:D257.數(shù)據(jù)表窗體同一時(shí)刻能顯示()。A、1條記錄B、2條記錄C、3條記錄D、多條記錄答案:D258.在生成式任務(wù)中,模型生成的文本冗余通常是因?yàn)椋篈、模型過(guò)于簡(jiǎn)單B、訓(xùn)練數(shù)據(jù)不足C、模型過(guò)擬合D、訓(xùn)練數(shù)據(jù)過(guò)度清洗答案:C259.視頻數(shù)據(jù)是指連續(xù)的()。A、圖像序列B、圖形序列C、文字序列D、語(yǔ)音序列答案:A260.不確定性分為兩類(lèi),一是證據(jù)的不確定性,二是()A、推理的不確定性B、信息的不確定性C、計(jì)算的不確定性D、知識(shí)的不確定性答案:D261.查找條件為:姓名為NULL的記錄()A、WHERENAMENULLB、\WHERENAMEISNULLC、WHERENAME=NULLD、\WHERENAME==NULL答案:B262.人工智能“兩庫(kù)一平臺(tái)”邊緣側(cè)采集數(shù)據(jù)和業(yè)務(wù)系統(tǒng)數(shù)據(jù)經(jīng)過(guò)預(yù)處理和標(biāo)注后,形成可用于訓(xùn)練的樣本數(shù)據(jù),歸集至()。A、省級(jí)樣本庫(kù)B、公司樣本庫(kù)C、共享樣本庫(kù)D、云樣本庫(kù)答案:A263.在機(jī)器學(xué)習(xí)中,裝袋(Bagging)和提升(Boosting)都是集成學(xué)習(xí)方法,但它們有何不同?A、"裝袋"關(guān)注于減少方差,而"提升"關(guān)注于減少偏差B、"裝袋"和"提升"使用相同的基學(xué)習(xí)器C、"裝袋"適用于分類(lèi)問(wèn)題,而"提升"適用于回歸問(wèn)題D、"裝袋"和"提升"都沒(méi)有使用投票機(jī)制來(lái)組合預(yù)測(cè)結(jié)果答案:A264.人臉3D標(biāo)注對(duì)于()想象能力要求更高。A、三位空間B、二維空間C、平面D、圖形答案:A265.自然語(yǔ)言處理的英文簡(jiǎn)寫(xiě)是()。A、PLNB、NLPC、LPND、PNL答案:B266.改變文件所有者的命令為()。A、chmodB、touchC、hownD、cat答案:C267.不屬于機(jī)器視覺(jué)系統(tǒng)基本構(gòu)成的是()。A、景深B、相機(jī)C、光源D、電腦系統(tǒng)答案:A268.在深度學(xué)習(xí)中,哪種類(lèi)型的神經(jīng)網(wǎng)絡(luò)最適合處理序列數(shù)據(jù),例如文本或音頻?A、卷積神經(jīng)網(wǎng)絡(luò)(CNN)B、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)C、支持向量機(jī)(SVM)D、多層感知機(jī)(MLP)答案:B269.橡皮筋算法中氣泡表示()。A、位形空間子集B、機(jī)器人所占位形空間子集C、可行位形空間子集D、不可行位形空間子集答案:C270.與卷積神經(jīng)網(wǎng)絡(luò)相比,循環(huán)神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)()。A、細(xì)節(jié)信息B、文章長(zhǎng)度C、單詞之間的長(zhǎng)距離依賴(lài)關(guān)系D、歧義答案:C271.下列不適合于進(jìn)行定位的地圖表示方法是()。A、柵格地圖B、點(diǎn)云地圖C、特征地圖D、拓?fù)涞貓D答案:D272.強(qiáng)化學(xué)習(xí)的基本組成元素不包括以下哪一項(xiàng)?A、環(huán)境(Environment)B、智能體(Agent)C、狀態(tài)(State)D、目標(biāo)函數(shù)(ObjectiveFunction)答案:D273.在深度學(xué)習(xí)中,什么是過(guò)參數(shù)化(Overparameterization)?A、模型參數(shù)過(guò)多導(dǎo)致訓(xùn)練困難B、模型參數(shù)過(guò)少導(dǎo)致欠擬合C、模型參數(shù)數(shù)量適當(dāng),能夠很好地?cái)M合數(shù)據(jù)D、模型參數(shù)數(shù)量與任務(wù)復(fù)雜度不匹配答案:A274.AlphaGo是用來(lái)()。A、下國(guó)際象棋B、下圍棋C、下?lián)淇伺艱、下象棋答案:B275.在大語(yǔ)言模型中,什么是tokenizer?A、用于將文本轉(zhuǎn)換為模型可處理的數(shù)值向量的工具B、用于評(píng)估模型性能的指標(biāo)C、模型訓(xùn)練時(shí)的優(yōu)化算法D、模型輸出的文本格式答案:A276.在機(jī)器學(xué)習(xí)領(lǐng)域中,交叉驗(yàn)證主要用來(lái)做什么?A、評(píng)估模型在未見(jiàn)過(guò)的數(shù)據(jù)上的泛化能力B、調(diào)整模型的學(xué)習(xí)率C、選擇合適的特征子集D、優(yōu)化模型的正則化參數(shù)答案:A277.在生成式人工智能模型訓(xùn)練方法中,Adam優(yōu)化器的特點(diǎn)是:A、適用于大規(guī)模數(shù)據(jù)集B、需要較少的內(nèi)存資源C、訓(xùn)練速度比隨機(jī)梯度下降快D、只適用于小規(guī)模模型答案:C278.強(qiáng)化學(xué)習(xí)與監(jiān)督學(xué)習(xí)的最大區(qū)別在于下列的()。A、如何產(chǎn)生動(dòng)作B、對(duì)產(chǎn)生動(dòng)作的好壞作一評(píng)價(jià)C、外部信息較豐富D、有無(wú)教師存在答案:B279.在深度學(xué)習(xí)中,生成對(duì)抗網(wǎng)絡(luò)(GAN)的訓(xùn)練過(guò)程中,哪個(gè)部分負(fù)責(zé)生成逼真的數(shù)據(jù)?A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)答案:B280.機(jī)器視覺(jué)系統(tǒng)的優(yōu)點(diǎn)包括()①非接觸測(cè)量②較寬的光譜響應(yīng)范圍③長(zhǎng)時(shí)間穩(wěn)定工作④無(wú)任何外界影響A、①③④B、①②④C、①②③D、①②③④答案:C281.以下哪個(gè)不是神經(jīng)網(wǎng)絡(luò)中的正則化方法?A、L1正則化B、L2正則化C、DropoutD、梯度下降答案:D282.在Linux系統(tǒng)中,以()方式訪問(wèn)設(shè)備。A、文件B、文檔C、符號(hào)D、表格答案:A283.yield生成器隨著語(yǔ)料數(shù)量的增加,讀取速度()。A、越快B、越慢C、不變D、停止答案:B284.在強(qiáng)化學(xué)習(xí)中,策略梯度方法主要用于解決什么類(lèi)型的問(wèn)題?A、離散動(dòng)作空間的問(wèn)題。B、連續(xù)動(dòng)作空間的問(wèn)題。C、只有兩個(gè)動(dòng)作可選的問(wèn)題。D、無(wú)需動(dòng)作選擇的問(wèn)題。答案:B285.數(shù)據(jù)表中有一個(gè)地址字段,查找地址最后兩個(gè)字為2樓的記錄條件是().A、Right([地址],2)="2樓"B、Right([地址],3)="2樓"C、Right("地址",2)="2樓"D、Right("地址",3)="2樓"答案:A286.在深度學(xué)習(xí)中,生成對(duì)抗網(wǎng)絡(luò)(GANs)的訓(xùn)練過(guò)程中,哪個(gè)部分負(fù)責(zé)生成逼真的數(shù)據(jù)?A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)答案:B287.下列哪個(gè)不屬于常用的文本分類(lèi)的特征選擇算法()A、卡方檢驗(yàn)值B、互信息C、信息增益D、主成分分析答案:D288.關(guān)于預(yù)訓(xùn)練(Pre-training)和微調(diào)(Fine-tuning),下面哪些說(shuō)法是正確的?A、預(yù)訓(xùn)練通常在大規(guī)模無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行B、微調(diào)是在特定任務(wù)的數(shù)據(jù)集上對(duì)預(yù)訓(xùn)練模型進(jìn)行調(diào)整C、這種方法可以顯著提升模型在小數(shù)據(jù)集上的性能D、主要應(yīng)用于自然語(yǔ)言處理領(lǐng)域,如BERT模型答案:B289.在自然語(yǔ)言處理中,詞嵌入(WordEmbedding)的主要目的是什么?A、加速訓(xùn)練過(guò)程B、提供上下文信息C、降低模型復(fù)雜度D、增加詞匯量答案:B290.微型計(jì)算機(jī)的性能主要由微處理器的()決定。A、質(zhì)量B、控制器C、PUD、價(jià)格性能比答案:C291.在CNN網(wǎng)絡(luò)中,圖A經(jīng)過(guò)核為3x3,步長(zhǎng)為2的卷積層,ReLU激活函數(shù)層,BN層,以及一個(gè)步長(zhǎng)為2,核為2?2的池化層后,再經(jīng)過(guò)一個(gè)3?3的的卷積層,步長(zhǎng)為1,此時(shí)的感受野是()A、10B、11C、12D、13答案:D292.視頻屬性標(biāo)注內(nèi)容不包括()。A、標(biāo)注物位置B、狀態(tài)變化C、屬性判斷D、視頻長(zhǎng)度答案:D293.在機(jī)器學(xué)習(xí)中,如果模型在訓(xùn)練集上表現(xiàn)很好,但在測(cè)試集上表現(xiàn)較差,這通常意味著什么?A、模型欠擬合B、模型過(guò)擬合C、數(shù)據(jù)集太小D、模型復(fù)雜度太高答案:B294.在自然語(yǔ)言處理任務(wù)中,最適合解決文本相似度計(jì)算問(wèn)題的模型是:A、BERTB、CNNC、LSTMD、GAN答案:A295.以下哪個(gè)不是模型選擇時(shí)常用的驗(yàn)證方法?A、留出驗(yàn)證法B、交叉驗(yàn)證法C、自驗(yàn)證法D、自助法答案:C296.在深度學(xué)習(xí)中,什么是殘差連接(ResidualConnection)?A、一種損失函數(shù)的計(jì)算方法B、一種正則化技術(shù),用于防止過(guò)擬合C、一種優(yōu)化算法,用于更新模型參數(shù)D、一種模型結(jié)構(gòu)設(shè)計(jì)方法,有助于解決梯度消失和梯度爆炸問(wèn)題答案:D297.在主觀Bayes方法中,證據(jù)E支持結(jié)論H時(shí)有()。A、LS<1B、LS=1C、LS>1D、LS<0答案:C298.智能運(yùn)維AIOps的核心技術(shù)是什么?A、大數(shù)據(jù)分析B、機(jī)器學(xué)習(xí)C、人工智能D、所有以上答案:D299.在窗體中,標(biāo)簽的標(biāo)題是標(biāo)簽控件的().A、自身寬度B、名字C、大小D、顯示內(nèi)容答案:D300.以下哪個(gè)不是深度學(xué)習(xí)模型訓(xùn)練中的常見(jiàn)超參數(shù)?A、學(xué)習(xí)率B、批量大小C、模型深度D、損失函數(shù)答案:D301.在強(qiáng)化學(xué)習(xí)中,智能體(Agent)通過(guò)什么來(lái)學(xué)習(xí)?A、監(jiān)督學(xué)習(xí)B、無(wú)監(jiān)督學(xué)習(xí)C、與環(huán)境的交互D、規(guī)則或?qū)<蚁到y(tǒng)答案:C302.BERT模型中的MLM(MaskedLanguageModeling)任務(wù)主要用于解決什么問(wèn)題?A、文本生成B、文本分類(lèi)C、文本中的詞預(yù)測(cè)D、語(yǔ)義相似度計(jì)算答案:C303.移動(dòng)機(jī)器人軌跡規(guī)劃中所用參數(shù)優(yōu)化法是對(duì)()進(jìn)行控制A、位置B、時(shí)間C、速度D、加速度答案:C304.以下哪個(gè)是深度學(xué)習(xí)的關(guān)鍵技術(shù)?A、支持向量機(jī)(SVM)B、邏輯回歸C、卷積神經(jīng)網(wǎng)絡(luò)(CNN)D、決策樹(shù)答案:C305.在深度學(xué)習(xí)中,批量歸一化的效果不包括:A、減輕梯度消失問(wèn)題B、加速模型收斂C、增加模型的泛化能力D、減少模型參數(shù)答案:D306.遷移學(xué)習(xí)通常用于解決什么問(wèn)題?A、數(shù)據(jù)不平衡B、模型過(guò)擬合C、新任務(wù)的數(shù)據(jù)稀缺D、算法選擇困難答案:C307.在自然語(yǔ)言處理中,對(duì)長(zhǎng)文本進(jìn)行處理時(shí),哪種模型結(jié)構(gòu)更加有效:A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、卷積神經(jīng)網(wǎng)絡(luò)C、TransformerD、全連接網(wǎng)絡(luò)答案:C308.深度學(xué)習(xí)中的注意力機(jī)制(AttentionMechanism)主要用于什么目的?A、讓模型更加關(guān)注數(shù)據(jù)中的重要部分B、減少模型參數(shù)數(shù)量C、加速模型訓(xùn)練D、提高模型復(fù)雜度答案:A309.數(shù)據(jù)采集和標(biāo)注在AI技術(shù)發(fā)展中扮演什么角色?A、提高模型性能B、增加訓(xùn)練數(shù)據(jù)的多樣性C、減少人工干預(yù)D、所有以上答案:D310.關(guān)于刪除查詢(xún),下面敘述正確的是()。A、每次操作只能刪除一條記錄B、每次只能刪除單個(gè)表中的記錄C、刪除過(guò)的記錄只能用"撤消"命令恢復(fù)D、每次刪除整個(gè)記錄,并非是指定字段中的記錄答案:D311.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,前向傳播是指什么?A、從輸入層到輸出層計(jì)算網(wǎng)絡(luò)每層的結(jié)果B、更新網(wǎng)絡(luò)的權(quán)重和偏差C、計(jì)算損失函數(shù)D、所有以上答案:A312.以下哪個(gè)不是計(jì)算機(jī)視覺(jué)中常用的數(shù)據(jù)增強(qiáng)方法?A、旋轉(zhuǎn)圖像B、翻轉(zhuǎn)圖像C、調(diào)整圖像亮度D、增加文本標(biāo)簽答案:D313.關(guān)于Attention-basedModel,下列說(shuō)法正確的是()A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對(duì)輸出的比例模型D、都不對(duì)答案:A314.在大模型的訓(xùn)練過(guò)程中,為什么要采用混合精度訓(xùn)練(MixedPrecisionTraining)?A、減少計(jì)算資源的消耗B、提高模型的性能C、加快模型的訓(xùn)練速度D、防止模型過(guò)擬合答案:A315.移動(dòng)機(jī)器人自主導(dǎo)航的基本問(wèn)題不包括下列的()。A、我在哪里B、我要去哪里C、我怎樣到達(dá)那里D、我前方是什么答案:D316.BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則是?A、梯度上升法B、梯度下降法C、梯度提升法D、梯度曲線法答案:B317.當(dāng)在卷積神經(jīng)網(wǎng)絡(luò)中加入池化層(poolinglayer)時(shí),變換的不變性會(huì)被保留嗎?()A、不知道B、看情況C、會(huì)D、不會(huì)答案:C318.輸入32?32的圖像,用大小5?5的卷積核做步長(zhǎng)為1的卷積計(jì)算,輸出圖像的大小是A、28?23B、28?28C、29?29D、23?23答案:B319.在Spak的軟件棧中,用于交互式查詢(xún)的是A、SparkSQLB、MllibC、GraphXD、SparkStreaming答案:A320.下面哪一項(xiàng)對(duì)于閉環(huán)系統(tǒng)描述是正確的()。A、閉環(huán)控制系統(tǒng)比開(kāi)環(huán)控制系統(tǒng)更加復(fù)雜,成本高B、閉環(huán)控制系統(tǒng)控制鏈路較為簡(jiǎn)單C、閉環(huán)控制一般不需要調(diào)節(jié)參數(shù)即可穩(wěn)定D、閉環(huán)控制系統(tǒng)效果總是優(yōu)于開(kāi)環(huán)控制答案:A321.在myqr模塊中,使用什么函數(shù)生成二維碼()。A、write()B、run()C、read()D、words答案:B322.在查詢(xún)中對(duì)一個(gè)字段指定的多個(gè)條件的取值之間滿(mǎn)足()關(guān)系.A、ndB、OrC、NotD、Like答案:B323.什么是稀疏矩陣?A、大多數(shù)元素為零的矩陣B、所有元素都為零的矩陣C、所有元素都為非零的矩陣D、元素?cái)?shù)量超過(guò)矩陣尺寸的矩陣答案:A324.自動(dòng)識(shí)別系統(tǒng)屬于人工智能哪個(gè)應(yīng)用領(lǐng)域?A、自然語(yǔ)言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專(zhuān)家系統(tǒng)D、人類(lèi)感官模擬答案:D325.以下哪個(gè)是AI發(fā)展歷史中的關(guān)鍵里程碑?A、1950年,艾倫·圖靈提出圖靈測(cè)試B、1970年,個(gè)人計(jì)算機(jī)的普及C、1990年,互聯(lián)網(wǎng)的發(fā)明D、2010年,社交媒體的興起答案:A326.哪一個(gè)是終止一個(gè)前臺(tái)進(jìn)程可能用到的命令和操作().A、<Ctrl>+CB、killC、shutdownD、halt答案:A327.下列哪個(gè)不是std_msgs下的消息()。A、std_msgs/HeaderB、std_msgs/TimeC、std_msgs/Float32D、std_msgs/LaserScan答案:D328.基于句子規(guī)劃的方法將NLG拆分成了什么模塊?()A、內(nèi)容規(guī)劃B、句子規(guī)劃C、表層生成D、以上全是答案:D329.自注意力機(jī)制在處理長(zhǎng)文本時(shí)的主要優(yōu)勢(shì)是:A、減少計(jì)算復(fù)雜度B、增強(qiáng)模型對(duì)長(zhǎng)距離依賴(lài)的捕捉能力C、減少模型參數(shù)D、加速模型訓(xùn)練答案:B330.大模型在處理長(zhǎng)文本時(shí)常常面臨什么問(wèn)題?A、計(jì)算資源不足B、梯度消失或爆炸C、上下文信息丟失D、過(guò)擬合答案:C331.在樸素貝葉斯分類(lèi)器中,“樸素”一詞指的是什么?A、模型簡(jiǎn)單,易于理解B、特征之間相互獨(dú)立C、適用于小數(shù)據(jù)集D、只能處理二分類(lèi)問(wèn)題答案:B332.人工智能通過(guò)輸入的圖片,解析出圖片的內(nèi)容,這種技術(shù)叫什么?A、圖片識(shí)別B、語(yǔ)音識(shí)別C、自動(dòng)駕駛D、消費(fèi)金融答案:A333.在微機(jī)中,存儲(chǔ)容量為1MB,指的是A、1024×1024個(gè)字B、1024×1024個(gè)字節(jié)C、1000×1000個(gè)字D、1000×1000個(gè)字節(jié)答案:B334.以下哪個(gè)是聚類(lèi)分析的主要目標(biāo)?A、對(duì)數(shù)據(jù)進(jìn)行分類(lèi)并標(biāo)記B、找出數(shù)據(jù)中的相似性和差異性C、預(yù)測(cè)數(shù)據(jù)的未來(lái)趨勢(shì)D、優(yōu)化模型的參數(shù)答案:B335.數(shù)據(jù)采集的主要目的是什么?A、收集高質(zhì)量數(shù)據(jù)B、減少人工干預(yù)C、提供訓(xùn)練數(shù)據(jù)D、所有以上答案:D336.在自然語(yǔ)言處理中,BERT模型主要用于解決什么問(wèn)題?A、文本分類(lèi)B、情感分析C、機(jī)器翻譯D、所有以上答案:D337.在生成式模型中,Diffusion模型架構(gòu)主要用于:A、文本生成B、語(yǔ)音識(shí)別C、圖像生成D、數(shù)據(jù)分類(lèi)答案:C338.數(shù)據(jù)采集和標(biāo)注對(duì)AI模型的訓(xùn)練有何影響?A、提高模型的準(zhǔn)確性B、減少訓(xùn)練時(shí)間C、增加訓(xùn)練數(shù)據(jù)的多樣性D、所有以上答案:D339.動(dòng)力學(xué)主要是研究機(jī)器人的()。A、動(dòng)力源是什么B、運(yùn)動(dòng)和時(shí)間的關(guān)系C、動(dòng)力的傳遞與轉(zhuǎn)換D、動(dòng)力的應(yīng)用答案:C340.下述人機(jī)交互技術(shù)中,不屬于圖形人機(jī)交互技術(shù)的是()。A、幾何約束B(niǎo)、引力場(chǎng)C、語(yǔ)音識(shí)別D、橡皮筋技術(shù)答案:C341.第三方庫(kù)matplotlib的作用是。A、制作圖表B、進(jìn)行科學(xué)計(jì)算C、人工智慧預(yù)測(cè)D、數(shù)據(jù)可視化答案:A342.機(jī)器的翻譯屬于下列()領(lǐng)域的應(yīng)用。A、機(jī)器學(xué)習(xí)B、自然語(yǔ)言系統(tǒng)C、人類(lèi)感官模擬D、專(zhuān)家系統(tǒng)答案:B343.以下語(yǔ)句錯(cuò)誤的是()A、ltertableempdeletecolumnaddcolumn;B、altertableempmodifycolumnaddcolumnchar(10);C、altertableempchangeaddcolumnaddcolumnint;D、altertableempaddcolumnaddcolumnint;答案:A344.縱欄式窗體同一時(shí)刻能顯示()。A、1條記錄B、2條記錄C、3條記錄D、多條記錄答案:A345.下列數(shù)據(jù)類(lèi)型中,()屬于無(wú)序數(shù)據(jù)類(lèi)型。A、set、tupleB、str、listC、list、tupleD、set、dict答案:D346.傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)是人工智能核心技術(shù),在工程流程上略有差別,以下步驟在深度學(xué)習(xí)中不需要做的是A、模型評(píng)估B、特征工程C、數(shù)據(jù)清洗D、模型構(gòu)建答案:B347.以下哪個(gè)不是處理不平衡數(shù)據(jù)集時(shí)常用的方法?A、過(guò)采樣少數(shù)類(lèi)B、欠采樣多數(shù)類(lèi)C、使用合成樣本D、增加特征維度答案:D348.人工智能的近期目標(biāo)在于研究機(jī)器來(lái)()A、模仿和執(zhí)行人腦的某些智力功能B、完全代替人類(lèi)C、制造智能機(jī)器D、代替人腦答案:A349.決策樹(shù)算法在機(jī)器學(xué)習(xí)中通常用于解決什么問(wèn)題?A、聚類(lèi)問(wèn)題B、分類(lèi)問(wèn)題C、時(shí)間序列預(yù)測(cè)D、關(guān)聯(lián)規(guī)則挖掘答案:B350.下列哪個(gè)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)()。A、CNNB、LSTMC、BERTD、RNN答案:D351.協(xié)同過(guò)濾是推薦系統(tǒng)中的一種常見(jiàn)方法,它主要基于什么進(jìn)行推薦?A、用戶(hù)的歷史行為B、物品的屬性C、用戶(hù)之間的相似性D、物品的流行度答案:C352.在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化為什么很重要?A、保證每次訓(xùn)練的起點(diǎn)一致B、加快模型收斂過(guò)程C、避免梯度消失或爆炸D、使模型更易于訓(xùn)練,防止某些神經(jīng)元不活躍答案:D353.在文本分類(lèi)任務(wù)中,通常使用哪種類(lèi)型的特征表示?A、詞袋模型B、決策樹(shù)C、PCAD、KNN答案:A354.在推薦系統(tǒng)中,什么是召回率?A、推薦系統(tǒng)中推薦的物品數(shù)量B、推薦系統(tǒng)中推薦的正確物品數(shù)量占實(shí)際正確物品數(shù)量的比例C、推薦系統(tǒng)中推薦的正確物品數(shù)量占推薦物品數(shù)量的比例D、推薦系統(tǒng)中推薦的物品占所有物品的比例答案:B355.數(shù)據(jù)清洗工作不包括()。A、刪除多余重復(fù)的數(shù)據(jù)B、糾正或刪除錯(cuò)誤的數(shù)據(jù)C、采用適當(dāng)方法補(bǔ)充缺失的數(shù)據(jù)D、更改過(guò)大的過(guò)小的異常數(shù)據(jù)答案:D356.應(yīng)用在圖像變形等,這是圖像的()運(yùn)算。A、點(diǎn)運(yùn)算B、代數(shù)運(yùn)算C、幾何運(yùn)算D、灰度運(yùn)算答案:C357.下列不是弱人工智能應(yīng)用的是()。A、語(yǔ)音識(shí)別B、圖像識(shí)別C、文本審核D、遷移學(xué)習(xí)答案:D358.計(jì)算機(jī)主機(jī)是由CPU與下列哪種設(shè)備共同構(gòu)成的()A、控制器B、運(yùn)算器C、輸入、輸出設(shè)備D、內(nèi)存儲(chǔ)器答案:D359.以下不屬于常見(jiàn)采集工具的是()。A、手機(jī)B、紅外相機(jī)C、3D激光雷達(dá)D、機(jī)械硬盤(pán)答案:D360.Transformer模型中的自注意力機(jī)制用于:A、減少模型的參數(shù)數(shù)量B、加速模型的訓(xùn)練過(guò)程C、提高模型的并行能力D、增強(qiáng)模型對(duì)輸入序列每個(gè)位置的理解答案:D361.下列算式正確的是()。A、lnt(2.5)=3B、lnt(2.5)=2C、lnt(2.5)=2.5D、lnt(2.5)=0.5答案:B362.在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)ReLU的主要優(yōu)勢(shì)是什么?A、平滑連續(xù)性B、保證輸出位于固定區(qū)間C、解決梯度消失問(wèn)題D、簡(jiǎn)化模型復(fù)雜度答案:C363.機(jī)器學(xué)習(xí)中的“過(guò)擬合”通常是由什么引起的?A、訓(xùn)練數(shù)據(jù)不足B、訓(xùn)練數(shù)據(jù)中的噪聲C、模型復(fù)雜度過(guò)高D、使用了不適當(dāng)?shù)膿p失函數(shù)答案:C364.中的“策略網(wǎng)絡(luò)”主要用于解決什么問(wèn)題?A、圖像分類(lèi)B、強(qiáng)化學(xué)習(xí)C、文本生成D、數(shù)據(jù)清洗答案:B365.反向傳播算法的主要目的是什么?A、計(jì)算損失函數(shù)對(duì)模型參數(shù)的梯度B、更新模型的權(quán)重和偏差C、提高模型的準(zhǔn)確率D、所有以上答案:D366.以下不是DataFrame對(duì)象的組成部分的是()。A、值B、行索引C、標(biāo)題D、列索引答案:C367.以下哪個(gè)深度學(xué)習(xí)框架是中國(guó)本土企業(yè)開(kāi)發(fā)的?A、TensorFlowB、MindSporeC、PyTorchD、Keras答案:B368.在推薦系統(tǒng)中,什么是“矩陣分解”?A、將高維矩陣轉(zhuǎn)換為低維矩陣的技術(shù)B、將稀疏矩陣轉(zhuǎn)換為稠密矩陣的技術(shù)C、將推薦問(wèn)題轉(zhuǎn)換為優(yōu)化問(wèn)題的技術(shù)D、將物品推薦問(wèn)題轉(zhuǎn)換為分類(lèi)問(wèn)題的技術(shù)答案:A369.命題是一個(gè)非真及假的()。A、否定句B、陳述句C、反問(wèn)句D、疑問(wèn)句答案:B370.關(guān)于.launch文件的描述,以下哪一項(xiàng)是錯(cuò)的()。A、可以一次性啟動(dòng)多個(gè)節(jié)點(diǎn),減少操作。B、可以加載配置好的參數(shù),方便快捷。C、通過(guò)roslaunch命令來(lái)啟動(dòng)launch文件D、在roslaunch前必須先roscore答案:D371.下列不屬于深度相機(jī)原理的是()。A、結(jié)構(gòu)光B、光飛行時(shí)間法(TOF)C、紅外測(cè)距D、雙目立體視覺(jué)答案:C372.以下哪項(xiàng)不是數(shù)據(jù)采集和標(biāo)注的挑戰(zhàn)?A、數(shù)據(jù)隱私B、數(shù)據(jù)質(zhì)量C、數(shù)據(jù)安全D、數(shù)據(jù)標(biāo)注速度答案:D373.已知列表對(duì)象ls,哪個(gè)選項(xiàng)對(duì)ls.append(x)的描述是正確的()。A、向ls中增加元素,如果x是一個(gè)列表,則可以同時(shí)增加多個(gè)元素B、只能向列表ls最后增加一個(gè)元素xC、向列表ls最前面增加一個(gè)元素xD、替換列表ls最后一個(gè)元素為x答案:B374.傳統(tǒng)的醫(yī)療機(jī)構(gòu)由于互聯(lián)網(wǎng)平臺(tái)的接入,使得人們實(shí)現(xiàn)在線求醫(yī)問(wèn)藥成為可能,屬于互聯(lián)網(wǎng)+()。A、電子商務(wù)B、普惠金融C、益民服務(wù)D、以上均屬于答案:C375.序列到序列(Seq2Seq)模型通常用于什么類(lèi)型的任務(wù)?A、文本分類(lèi)B、機(jī)器翻譯C、情感分析D、命名實(shí)體識(shí)別答案:B376.以下哪個(gè)不是決策樹(shù)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論