人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第1頁(yè)
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第2頁(yè)
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第3頁(yè)
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第4頁(yè)
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第5頁(yè)
已閱讀5頁(yè),還剩164頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)單選題1.自然語(yǔ)言處理的英文簡(jiǎn)寫(xiě)是()。2.專用與通用人工智能討論的是智能的()問(wèn)題。A、分層D、語(yǔ)言處理3.支持向量機(jī)SVM是一種()算法。A、只有有限個(gè)間斷點(diǎn)的連續(xù)函數(shù)B、大樣本下的統(tǒng)計(jì)機(jī)器學(xué)習(xí)C、大樣本下的實(shí)例機(jī)器學(xué)習(xí)4.在自然語(yǔ)言處理中,transformer模型主要用于解決()問(wèn)題。A、文本摘要B、機(jī)器翻譯C、情感分析D、以上都是5.在自然語(yǔ)言處理中,n-gram模型主要用于解決()問(wèn)題。C、圖像描述生成D、機(jī)器翻譯RL)的目的是()。A、確定句子中的謂語(yǔ)和賓語(yǔ)B、根據(jù)上下文理解句子的含義C、根據(jù)謂語(yǔ)動(dòng)詞確定句子的結(jié)構(gòu)D、根據(jù)名詞短語(yǔ)確定句子的主題于解決()問(wèn)題。A、文本分類B、確定文獻(xiàn)間的相似性或關(guān)聯(lián)性C、生成文本摘要8.在自然語(yǔ)言處理任務(wù)中,自適應(yīng)學(xué)習(xí)率優(yōu)化器的一個(gè)例子是9.在自然語(yǔ)言處理任務(wù)中,()模型最適合實(shí)現(xiàn)情感分析。10.在自然語(yǔ)言處理任務(wù)中,()技術(shù)不適用于文本分類。11.在正則表達(dá)式中,匹配任意一個(gè)字符的符號(hào)是()。12.在英文閱讀中遇到生詞時(shí),教師一般要求學(xué)生聯(lián)系上下文猜測(cè)詞義,而不是急于查字典。這體現(xiàn)了知覺(jué)的()。A、整體性B、選擇性D、恒常性沒(méi)有下降,可能的原因是()。A、學(xué)習(xí)率(learningrate)太低B、正則參數(shù)太高C、陷入局部最小值D、以上都是14.在訓(xùn)練模型之前,需要把先標(biāo)注好的數(shù)據(jù)進(jìn)行()。D、更新15.在訓(xùn)練大模型時(shí),為了避免過(guò)擬合,()技術(shù)可能被使用。A、增加訓(xùn)練輪次B、減少網(wǎng)絡(luò)層數(shù)D、降低學(xué)習(xí)率16.在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,()問(wèn)題容易導(dǎo)致梯度消失或梯度爆炸。A、輸入數(shù)據(jù)的維度過(guò)大B、網(wǎng)絡(luò)層數(shù)過(guò)多C、時(shí)間序列過(guò)長(zhǎng)D、激活函數(shù)選擇不當(dāng)A、推薦系統(tǒng)能夠推薦大量冷門但優(yōu)質(zhì)的物品B、推薦系統(tǒng)總是推薦熱門的物品C、推薦系統(tǒng)推薦的物品數(shù)量很少D、推薦系統(tǒng)無(wú)法處理大量數(shù)據(jù)18.在推薦系統(tǒng)中,()是“上下文廣告”。A、根據(jù)用戶的當(dāng)前上下文信息展示相關(guān)的廣告B、根據(jù)物品的流行度展示廣告C、根據(jù)用戶的個(gè)人信息展示廣告D、根據(jù)用戶的搜索歷史展示廣告19.在梯度下降中,鞍點(diǎn)通常指的是()。A、損失函數(shù)的局部最小值點(diǎn)B、損失函數(shù)的局部最大值點(diǎn)C、損失函數(shù)的平坦區(qū)域20.在隨機(jī)森林中,為了()要隨機(jī)選擇特征和樣本。A、提高模型的穩(wěn)定性B、增加模型的多樣性C、減少計(jì)算復(fù)雜度D、提高模型的精度21.在數(shù)據(jù)預(yù)處理中,數(shù)據(jù)離散化通常用于()。A、減少計(jì)算量B、處理缺失值C、處理分類變量D、處理異常值22.在生成式人工智能模型中,零樣本學(xué)習(xí)的目的是()。A、在沒(méi)有任何樣本的情況下進(jìn)行訓(xùn)練B、僅使用少量樣本進(jìn)行訓(xùn)練C、在沒(méi)有見(jiàn)過(guò)的樣本上進(jìn)行推理D、使用大量樣本進(jìn)行訓(xùn)練23.在神經(jīng)網(wǎng)絡(luò)中,()是權(quán)重共享。A、不同層之間共享相同的權(quán)重B、不同神經(jīng)元之間共享相同的權(quán)重C、不同樣本之間共享相同的權(quán)重D、不同批次之間共享相同的權(quán)重24.在神經(jīng)網(wǎng)絡(luò)中,()技術(shù)用于解決過(guò)擬合。B、正則化C、批規(guī)范化參考答案:B25.在神經(jīng)網(wǎng)絡(luò)中,()操作通常用于減少模型的計(jì)算復(fù)雜度。A、增加層數(shù)C、增加神經(jīng)元數(shù)量D、使用更復(fù)雜的激活函數(shù)26.在深度學(xué)習(xí)中,卷積層主要用于()。B、序列生成C、語(yǔ)義分析D、決策優(yōu)化27.在深度學(xué)習(xí)中,激活函數(shù)的主要作用是()。A、對(duì)輸入數(shù)據(jù)進(jìn)行線性變換B、對(duì)輸入數(shù)據(jù)進(jìn)行非線性變換C、增加模型的復(fù)雜度D、減少模型的過(guò)擬合28.在深度學(xué)習(xí)中,“長(zhǎng)短期記憶”(LSTM)網(wǎng)絡(luò)主要用于處理()A、圖像數(shù)據(jù)B、音頻數(shù)據(jù)C、時(shí)序數(shù)據(jù)D、文本數(shù)據(jù)29.在深度學(xué)習(xí)中,“生成對(duì)抗網(wǎng)絡(luò)”(GANs)的訓(xùn)練過(guò)程中的部分負(fù)責(zé)生成逼真的數(shù)據(jù)。參考答案:B30.在深度學(xué)習(xí)中,“生成對(duì)抗網(wǎng)絡(luò)”(GAN)的訓(xùn)練過(guò)程中,()部分負(fù)責(zé)生成逼真的數(shù)據(jù)。D、解碼器(Decoder)點(diǎn)是()。A、可以減少訓(xùn)練時(shí)間B、可以減少模型的復(fù)雜度C、可以利用預(yù)訓(xùn)練模型來(lái)提高性能D、可以減少數(shù)據(jù)需求32.在深度學(xué)習(xí)中,“卷積神經(jīng)網(wǎng)絡(luò)”(CNN)中的池化層(PoolingLayer)的作用是()。A、增強(qiáng)模型的非線性能力B、提取局部特征C、降低特征的空間維度D、增加網(wǎng)絡(luò)的深度33.在深度學(xué)習(xí)中,“卷積”(Convolution)操作主要用于()。A、圖像分類B、文本生成C、語(yǔ)音識(shí)別D、以上都是34.在深度學(xué)習(xí)中,“遞歸神經(jīng)網(wǎng)絡(luò)”(RNN)的一個(gè)主要A、可以減少過(guò)擬合B、可以實(shí)現(xiàn)端到端的學(xué)習(xí)C、可以減少計(jì)算量D、特別適用于處理非結(jié)構(gòu)化數(shù)據(jù)35.在深度學(xué)習(xí)中,()技術(shù)常用于避免梯度消失問(wèn)題。A、ReLU激活函數(shù)B、批量歸一化36.在深度學(xué)習(xí)模型中,過(guò)擬合的一個(gè)常見(jiàn)解決方案是()。A、增加訓(xùn)練數(shù)據(jù)的數(shù)量B、減少模型的深度C、增加模型的寬度D、減少訓(xùn)練迭代次數(shù)37.在人機(jī)交互技術(shù)中,不屬于圖形人機(jī)交互技術(shù)的是()。A、幾何約束D、橡皮筋技術(shù)38.在強(qiáng)化學(xué)習(xí)中,智能體通過(guò)()方式與環(huán)境互動(dòng)。A、發(fā)送動(dòng)作并接收狀態(tài)B、接收狀態(tài)并發(fā)送動(dòng)作C、接收狀態(tài)、發(fā)送動(dòng)作并得到獎(jiǎng)勵(lì)或懲罰D、僅接收環(huán)境的狀態(tài)信息39.在強(qiáng)化學(xué)習(xí)中,策略梯度方法主要用于優(yōu)化()。B、環(huán)境模型C、策略函數(shù)D、獎(jiǎng)勵(lì)函數(shù)40.在強(qiáng)化學(xué)習(xí)中,Q-learning算法主要用于解決()問(wèn)題。A、狀態(tài)估計(jì)B、動(dòng)作選擇C、獎(jiǎng)勵(lì)最大化稱之為()。42.在命名實(shí)體識(shí)別任務(wù)中,O標(biāo)簽通常代表()。A、命名實(shí)體的開(kāi)始B、命名實(shí)體的內(nèi)部C、非命名實(shí)體D、命名實(shí)體的結(jié)束參考答案:C43.在課堂上,教師講課的聲音成為知覺(jué)的對(duì)象,而環(huán)境中的其他聲音成為背景音。這體現(xiàn)了知覺(jué)的()。A、理解性B、恒常性C、選擇性D、整體性參考答案:C44.在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,()主要用于提取特征并減少計(jì)算量和參數(shù)量。A、全連接層(FullyConnectedLayer)B、池化層(PoolingLayer)C、批量歸一化層(BatchNormalizationLayer)D、激活層(ActivationLayer)參考答案:B45.在聚類分析中,()指標(biāo)用于評(píng)估聚類效果的好壞。A、準(zhǔn)確率B、召回率C、輪廓系數(shù)46.在聚類分析中,()指標(biāo)用于評(píng)估聚類效果。C、輪廓系數(shù)47.在計(jì)算機(jī)視覺(jué)中,光流法通常用于估計(jì)()。A、物體的形狀B、物體的運(yùn)動(dòng)C、物體的顏色D、物體的紋理48.在計(jì)算機(jī)視覺(jué)中,()任務(wù)關(guān)注從視頻序列中檢測(cè)和跟蹤物體。A、圖像分類D、圖像生成49.在計(jì)算機(jī)視覺(jué)任務(wù)中,最常用于特征提取的深度學(xué)習(xí)模型是50.在機(jī)器學(xué)習(xí)中,過(guò)擬合通常是由()引起的。A、訓(xùn)練數(shù)據(jù)不足B、模型復(fù)雜度過(guò)高C、特征選擇不當(dāng)D、使用了不合適的損失函數(shù)51.在機(jī)器學(xué)習(xí)中,超參數(shù)(Hyperparameters)的調(diào)整通常使用()B、最大似然估計(jì)D、網(wǎng)格搜索(GridSearch)52.在機(jī)器學(xué)習(xí)中,K-折交叉驗(yàn)證主要用于()。A、提高模型的訓(xùn)練速度B、評(píng)估模型的泛化能力C、減少模型的過(guò)擬合風(fēng)險(xiǎn)D、增加數(shù)據(jù)集的大小參考答案:B53.在機(jī)器學(xué)習(xí)中,“批量歸一化”(BatchNormalization)的作用是A、加速梯度下降收斂B、降低模型的復(fù)雜度C、增加模型的容量D、改善模型的可解釋性參考答案:A54.在機(jī)器學(xué)習(xí)中,“決策樹(shù)”(DecisionTree)的一個(gè)限制是()。A、不能處理連續(xù)值B、不能用于多類分類問(wèn)題C、容易過(guò)擬合D、不能處理缺失值參考答案:C55.在機(jī)器學(xué)習(xí)中,“交叉驗(yàn)證”(Cross-validation)的主要目的是A、提高模型的訓(xùn)練速度B、評(píng)估模型的泛化能力C、減少模型的過(guò)擬合D、選擇最佳的模型參數(shù)參考答案:BA、加快算法的運(yùn)行速度B、使線性算法能夠處理非線性問(wèn)題C、減少模型的內(nèi)存使用D、簡(jiǎn)化模型的結(jié)構(gòu)參考答案:B57.在機(jī)器學(xué)習(xí)中,()是特征提取。A、將原始數(shù)據(jù)轉(zhuǎn)換為新的特征空間的過(guò)程B、從原始數(shù)據(jù)中選擇最重要的特征的過(guò)程C、用于評(píng)估模型性能的指標(biāo)D、用于調(diào)整模型參數(shù)的技術(shù)58.在機(jī)器學(xué)習(xí)中,()是超參數(shù)。A、模型中學(xué)習(xí)到的參數(shù)B、用于控制模型學(xué)習(xí)過(guò)程的參數(shù)C、輸入數(shù)據(jù)的特征D、模型的輸出A、模型復(fù)雜度和訓(xùn)練時(shí)間之間的關(guān)系B、模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn)和在測(cè)試數(shù)據(jù)上的表現(xiàn)之間的關(guān)系C、模型復(fù)雜度和泛化能力之間的關(guān)系D、模型準(zhǔn)確率和召回率之間的關(guān)系60.在機(jī)器學(xué)習(xí)中,()不屬于監(jiān)督學(xué)習(xí)算法。B、K-近鄰算法D、決策樹(shù)61.在機(jī)器學(xué)習(xí)領(lǐng)域中,交叉驗(yàn)證主要用來(lái)()。A、評(píng)估模型在未見(jiàn)過(guò)的數(shù)據(jù)上的泛化能力B、調(diào)整模型的學(xué)習(xí)率C、選擇合適的特征子集D、優(yōu)化模型的正則化參數(shù)62.在關(guān)系模型中,用來(lái)表示實(shí)體關(guān)系的是()。B、記錄D、指針63.在對(duì)話系統(tǒng)中,()不是常用的技術(shù)。A、意圖識(shí)別B、槽填充C、情感分析D、語(yǔ)音識(shí)別64.在大語(yǔ)言模型中,Transformer結(jié)構(gòu)的核心組成部分包括()。C、自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)D、SVM和決策樹(shù)65.在查詢“設(shè)計(jì)視圖”中()。A、只能添加數(shù)據(jù)庫(kù)表B、可以添加數(shù)據(jù)庫(kù)表,也可以添加查詢C、只能添加查詢D、以上都不是66.在Spak的軟件棧中,用于交互式查詢的是()。67.在select語(yǔ)句的where子句中,使用正則表達(dá)式過(guò)濾數(shù)據(jù)的關(guān)鍵字是()。68.在PyTorch中,如果要自定義一個(gè)神經(jīng)網(wǎng)絡(luò)層,需要繼承()69.在Python中,適合實(shí)現(xiàn)多路分支的結(jié)構(gòu)是()。參考答案:B70.在K近鄰(KNN)算法中,K通常代表()。A、模型訓(xùn)練時(shí)的迭代次數(shù)B、樣本數(shù)據(jù)集中的類別數(shù)量C、用來(lái)決定新樣本所屬類別的鄰居數(shù)量D、特征空間的維度數(shù)71.在io模塊中,用()函數(shù)讀取圖片。72.在CNN的反向傳播過(guò)程中,()是特有的操作。B、池化操作C、權(quán)值共享73.在“查詢參數(shù)”窗口定義查詢參數(shù)時(shí),除定義查詢參數(shù)的類型外,還要定義查詢參數(shù)的()。A、參數(shù)名稱C、參數(shù)值域74.與輪式里程計(jì)相比,激光里程計(jì)的主要優(yōu)勢(shì)在于()。A、計(jì)算效率高B、觀測(cè)范圍廣C、不受輪子打滑影響D、測(cè)量精度高75.用于比較觀察結(jié)果和期望結(jié)果的專家系統(tǒng)類型是()。76.用計(jì)算機(jī)管理科技情報(bào)資料,是計(jì)算機(jī)在()方面的應(yīng)用。A、科學(xué)計(jì)算D、人工智能77.隱馬爾可夫模型是一種著名的()模型。A、無(wú)向圖B、有向圖C、樹(shù)形圖D、環(huán)形圖78.遺傳算法中,從當(dāng)前群體中按照一定概率選出優(yōu)良個(gè)體,使它們有機(jī)會(huì)作為父代繁殖下一代子孫的操作是()。D、繼承79.一幅數(shù)字圖像是()。B、一個(gè)由許多像素排列而成的實(shí)體C、一個(gè)2-D數(shù)組中的元素D、一個(gè)3-D空間的場(chǎng)景80.一幅灰度級(jí)均勻分布的圖像,其灰度范圍在[0,255],則該圖像像素的存儲(chǔ)位數(shù)為()。81.要從學(xué)生關(guān)系中查詢20歲的女生進(jìn)行的查詢操作屬于()。82.現(xiàn)欲分析性別、年齡、身高、飲食習(xí)慣對(duì)體重的影響,如果這個(gè)體重是屬于實(shí)際的重量,是連續(xù)性的數(shù)據(jù)變量,這時(shí)應(yīng)采用();如果將體重分類,分成高、中、低三種體重類型作為因變量,則采用()。A、線性回歸;邏輯回歸B、邏輯回歸;線性回歸C、線性回歸;線性回歸D、邏輯回歸;邏輯回歸83.下面顯示的是查詢?cè)O(shè)計(jì)視圖的設(shè)計(jì)網(wǎng)格部分,從下圖所示的內(nèi)容中,可以判斷出要?jiǎng)?chuàng)建的查詢是()。A、刪除查詢B、追加查詢C、生成表查詢D、更新查詢84.文本摘要任務(wù)的主要目標(biāo)是()。A、識(shí)別文本中的關(guān)鍵詞B、生成文本的簡(jiǎn)短描述C、對(duì)文本進(jìn)行情感分析D、對(duì)文本進(jìn)行分類參考答案:B85.為制作“磁性男聲”音色,請(qǐng)專業(yè)人士錄制了一批數(shù)據(jù),()A、語(yǔ)速均勻,發(fā)音準(zhǔn)確的片段B、兒化音時(shí)有時(shí)無(wú)的片段C、語(yǔ)速比平均水平快很多的片段D、情緒激昂的片段86.為數(shù)據(jù)表創(chuàng)建索引的目的是()。A、提高查詢的檢索性能B、歸類C、創(chuàng)建唯一索引D、創(chuàng)建主鍵87.為解決單個(gè)輸出的感知機(jī)無(wú)法解決的異或問(wèn)題,需要用有至少()個(gè)輸出的感知機(jī)。88.圖像分割中常用的基于像素的方法是()。A、基于閾值的分割B、基于邊緣的分割C、基于區(qū)域的分割D、基于特征的分割89.通過(guò)SSML標(biāo)記()文本內(nèi)容,可以控制()語(yǔ)音生成的許多A、標(biāo)準(zhǔn),簡(jiǎn)單B、標(biāo)準(zhǔn),復(fù)雜C、格式化,合成D、通用性,合成90.梯度下降算法的正確步驟是()。①計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差②迭代跟新,直到找到最佳權(quán)重③把輸入傳入網(wǎng)絡(luò),得到輸出值④初始化隨機(jī)權(quán)重和偏差⑤對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差91.索價(jià)表格在30萬(wàn)-70萬(wàn)元之間的產(chǎn)品,可以設(shè)置條件為()。92.隨著閉源軟件在數(shù)據(jù)分析領(lǐng)域的地盤不斷縮小,老牌IT廠商正在改變商業(yè)模式,向著()靠攏。A、閉源B、開(kāi)源D、封閉93.算法中屬于圖像平滑處理的是()。B、狀態(tài)法C、高通濾波D、中值濾波94.數(shù)字音頻采樣和量化過(guò)程所用的主要硬件是()。A、數(shù)字編碼器B、數(shù)字解碼器C、模擬到數(shù)字的轉(zhuǎn)換器(A/D轉(zhuǎn)換器)D、數(shù)字到模擬的轉(zhuǎn)換器(D/A轉(zhuǎn)換器)95.數(shù)據(jù)預(yù)處理中,()步驟不是針對(duì)缺失值處理的。A、刪除包含缺失值的行或列B、使用均值或中位數(shù)填充缺失值C、對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化D、使用插值法填充缺失值96.數(shù)據(jù)庫(kù)(DB)、數(shù)據(jù)庫(kù)系統(tǒng)(DBS)和數(shù)據(jù)庫(kù)管理系統(tǒng)(DBMS)之間的關(guān)系是()。A、DBS包括DB和DBMSB、DBMS包括DB和DBSD、BS就是DB,也就是DBMS97.數(shù)據(jù)標(biāo)注的最終目的是()。B、提高數(shù)據(jù)質(zhì)量C、減少人工干預(yù)D、以上都是98.屬于物聯(lián)網(wǎng)感知層關(guān)鍵技術(shù)的是()。A、通信技術(shù)D、感知與標(biāo)識(shí)技術(shù)99.屬于點(diǎn)處理的是()。A、灰度線性變換B、二值化C、傅立葉變換D、中值濾波100.屬性xlabel用于設(shè)置可視化圖表的()部分。A、橫坐標(biāo)刻度B、橫坐標(biāo)名稱C、縱坐標(biāo)刻度D、縱坐標(biāo)名稱101.使用各類型標(biāo)注工具后,標(biāo)注完成的輸出文件的格式一般不包括()。102.使用白盒測(cè)試方法時(shí),確定測(cè)試數(shù)據(jù)應(yīng)根據(jù)()和指定的覆蓋標(biāo)準(zhǔn)。A、程序的內(nèi)部結(jié)構(gòu)B、程序的復(fù)雜性C、使用說(shuō)明書(shū)D、程序的功能103.神經(jīng)網(wǎng)絡(luò)求解問(wèn)題的過(guò)程中()陷入局部極值點(diǎn)。104.深度學(xué)習(xí)中,模型集成(ModelEnsemble)的主要目的是()。A、提高模型的準(zhǔn)確率B、減少模型的參數(shù)數(shù)量C、加速模型訓(xùn)練105.深度學(xué)習(xí)中,Dropout層的作用是()。A、防止過(guò)擬合B、增加模型復(fù)雜度C、加速模型收斂D、提高準(zhǔn)確率106.深度學(xué)習(xí)中,()網(wǎng)絡(luò)結(jié)構(gòu)通常用于處理序列數(shù)據(jù)并捕捉長(zhǎng)期107.深度學(xué)習(xí)中,()是梯度爆炸問(wèn)題。A、模型梯度在訓(xùn)練過(guò)程中逐漸增大B、模型梯度在訓(xùn)練過(guò)程中逐漸減小C、模型梯度在訓(xùn)練過(guò)程中保持不變D、模型梯度與損失函數(shù)無(wú)關(guān)108.深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的主要區(qū)別是()。A、深度學(xué)習(xí)使用更復(fù)雜的模型B、深度學(xué)習(xí)需要更多的計(jì)算資源C、深度學(xué)習(xí)通常基于神經(jīng)網(wǎng)絡(luò)D、深度學(xué)習(xí)僅適用于大規(guī)模數(shù)據(jù)集109.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種()形式。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、以上都是110.深度學(xué)習(xí)模型訓(xùn)練過(guò)程中,驗(yàn)證集的主要作用是()。A、選擇超參數(shù)B、評(píng)估模型性能C、作為額外的訓(xùn)練數(shù)據(jù)D、進(jìn)行在線學(xué)習(xí)111.人工智能最早的起源可以追溯到()。A、20世紀(jì)50年代B、19世紀(jì)90年代C、21世紀(jì)10年代D、18世紀(jì)70年代112.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、圖靈測(cè)試C、中文屋思想實(shí)驗(yàn)D、人類智能113.人工智能中的策略網(wǎng)絡(luò)主要用于解決()問(wèn)題。A、圖像分類B、強(qiáng)化學(xué)習(xí)C、文本生成D、數(shù)據(jù)清洗114.人工智能是一門利用計(jì)算機(jī)模擬人類智能行為科學(xué)的統(tǒng)稱,它涵蓋了訓(xùn)練計(jì)算機(jī)使其能夠完成()等人類行為的范疇。A、自主學(xué)習(xí)、判斷、執(zhí)行B、決策、判斷、執(zhí)行C、自主學(xué)習(xí)、決策、執(zhí)行D、自主學(xué)習(xí)、判斷、決策115.人工智能的本質(zhì)是()。A、取代人類智能B、電腦萬(wàn)能C、人類智慧的倒退D、對(duì)人類智能的模擬116.人工智能“兩庫(kù)一平臺(tái)”邊緣側(cè)采集數(shù)據(jù)和業(yè)務(wù)系統(tǒng)數(shù)據(jù)經(jīng)過(guò)預(yù)處理和標(biāo)注后,形成可用于訓(xùn)練的樣本數(shù)據(jù),歸集至()。A、省級(jí)樣本庫(kù)B、公司樣本庫(kù)C、共享樣本庫(kù)D、云樣本庫(kù)117.人工神經(jīng)網(wǎng)絡(luò)在20世紀(jì)()年代興起,一直以來(lái)都是人工智118.樸素貝葉斯方法的優(yōu)點(diǎn)是()。①樸素貝葉斯模型具有穩(wěn)定的分類效率②在小規(guī)模數(shù)據(jù)上表現(xiàn)良好,可以處理多分類任務(wù),并且適合增量訓(xùn)練,尤其是當(dāng)數(shù)據(jù)量超過(guò)內(nèi)存時(shí),可以分批增量訓(xùn)練③對(duì)丟失數(shù)據(jù)不是很敏感,算法比較簡(jiǎn)單,經(jīng)常用于文本分類119.目前常見(jiàn)的標(biāo)注文檔存儲(chǔ)格式不包括()。120.某種計(jì)算機(jī)的內(nèi)存容量是640K,這里的640K容量是指()121.每個(gè)查詢都有3種視圖的是()。A、設(shè)計(jì)視圖B、模版視圖C、數(shù)據(jù)表視圖D、SQL視圖A、一個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功B、多個(gè)已知事實(shí)與知識(shí)庫(kù)中的一個(gè)知識(shí)匹配成功C、多個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功D、已知事實(shí)不能與知識(shí)庫(kù)中的任何知識(shí)匹配成功參考答案:D123.盲目搜索策略不包括()。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、全局擇優(yōu)搜索124.量子計(jì)算的理論模型是()。A、希爾伯特機(jī)B、哥德?tīng)枡C(jī)C、通用圖靈機(jī)D、通用羅素機(jī)125.兩種以上(不含兩種)的分類問(wèn)題被稱為()。B、歸一化D、二分類參考答案:A126.客服中心是運(yùn)營(yíng)商和客戶接觸較為頻繁的通道,可以利用()在后端給客服中心建立龐大的知識(shí)庫(kù),供接線員們使用,幫他們A、大數(shù)據(jù)技術(shù)B、客戶畫(huà)像C、客戶狀態(tài)D、客戶心情127.卷積神經(jīng)網(wǎng)絡(luò)的縮寫(xiě)是()。128.卷積神經(jīng)網(wǎng)絡(luò)(CNN)在計(jì)算機(jī)視覺(jué)中主要用于()。A、自然語(yǔ)言處理B、圖像識(shí)別C、語(yǔ)音識(shí)別D、情感分析129.晶體管有3個(gè)工作區(qū),在數(shù)字電路中,它工作在()區(qū)。B、截止C、放大D、飽和或截止130.今年,大數(shù)據(jù)分析將出現(xiàn)革命性的新方法,從前的很多算法和基礎(chǔ)理論可能會(huì)產(chǎn)生理論級(jí)別的突破,而()技術(shù)將繼續(xù)成為大數(shù)據(jù)智能分析的核心技術(shù)。A、機(jī)器學(xué)習(xí)B、智能物流D、智能終端131.假設(shè)某數(shù)據(jù)庫(kù)表中有一個(gè)工作時(shí)間字段,查找20天之內(nèi)參加工作的記錄的準(zhǔn)則是()。132.假設(shè)某數(shù)據(jù)庫(kù)表中有一個(gè)“學(xué)生編號(hào)”字段,查找編號(hào)第3、4個(gè)字符為“03”的記錄的準(zhǔn)則是()。A、Mid([學(xué)生編號(hào)],3,4)="03"B、Mid([學(xué)生編號(hào)],3,2)="03C、Mid("學(xué)生編號(hào)",3,4)="03"D、Mid("學(xué)生編號(hào)",3,2)="03"133.機(jī)器學(xué)習(xí)的主要研究領(lǐng)域不包括()。A、語(yǔ)音識(shí)別C、云計(jì)算D、軟件工程134.機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于()。D、理解135.機(jī)器學(xué)習(xí)的發(fā)展分()階段。B、兩個(gè)C、三個(gè)D、四個(gè)參考答案:D136.合法的表達(dá)式是()。A、教師編號(hào)between100000And200000C、[基本工資]>=1000[基本工資]<=10000參考答案:B137.歸一化的種類有()。①線性歸一化②標(biāo)準(zhǔn)差歸一化③非線性歸一化參考答案:A138.關(guān)于支持向量回歸,說(shuō)法錯(cuò)誤的是()。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問(wèn)題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問(wèn)題C、同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)D、支持向量回歸的解是稀疏的139.關(guān)于語(yǔ)音識(shí)別流程,說(shuō)法不正確的是()。A、語(yǔ)音識(shí)別通常由語(yǔ)音信號(hào)的采集、端點(diǎn)檢測(cè)、特征提取等步驟組成B、語(yǔ)音信號(hào)的預(yù)處理首先要做的是語(yǔ)音信號(hào)的數(shù)字化C、特征提取是分析處理語(yǔ)音信號(hào)的特征參數(shù),以獲得能夠表征語(yǔ)音信號(hào)特征的數(shù)據(jù)D、特定人語(yǔ)音識(shí)別系統(tǒng)一般側(cè)重提取反映語(yǔ)義的特征參數(shù),盡量去除說(shuō)話人的個(gè)人信息140.關(guān)于刪除查詢,敘述正確的是()。A、每次操作只能刪除一條記錄B、每次只能刪除單個(gè)表中的記錄C、刪除過(guò)的記錄只能用"撤消"命令恢復(fù)D、每次刪除整個(gè)記錄,并非指定字段中的記錄141.關(guān)于人工智能概念,說(shuō)法錯(cuò)誤的是()。A、人工智能英文翻譯是B、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對(duì)人的意識(shí)、思維過(guò)程進(jìn)行模擬142.關(guān)于人工智能(AI)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者的關(guān)系,敘述正確的是()。A、機(jī)器學(xué)習(xí)專門研究計(jì)算機(jī)怎樣模擬人類的學(xué)習(xí)行為,以獲取新的知識(shí)和技能,重新組織已有的知識(shí)結(jié)構(gòu)以完善自身的性能,但是機(jī)器學(xué)習(xí)能力并非AI系統(tǒng)所必須的B、人工智能研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用,屬于一門獨(dú)立的技術(shù)學(xué)科C、深度學(xué)習(xí)方法研究人工神經(jīng)網(wǎng)絡(luò)的單層感知器學(xué)習(xí)結(jié)構(gòu)D、人工智能是一門研究、開(kāi)發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用的新的交叉學(xué)科,機(jī)器學(xué)習(xí)是人工智能的核心研究領(lǐng)域之一,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的新領(lǐng)域,研究多隱層多感知器、模擬人腦進(jìn)行分析學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)143.關(guān)于區(qū)域形狀的特征,描述不正確的是()。A、矩形度是物體面積與其最小外接矩形面積之比B、邊界的形狀數(shù)具有平移旋轉(zhuǎn)和比例縮放不變性C、當(dāng)區(qū)域?yàn)閳A時(shí),圓形度達(dá)到最大值1D、歸一化的中心矩具有平移旋轉(zhuǎn)比例縮放不變性144.關(guān)于模型評(píng)估,說(shuō)法正確的是()。A、訓(xùn)練集上的準(zhǔn)確率越高,模型性能越好B、測(cè)試集上的準(zhǔn)確率越高,模型性能越好C、驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好D、訓(xùn)練集、測(cè)試集和驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好145.關(guān)于機(jī)器學(xué)習(xí)方法,說(shuō)法正確的是()。A、解釋學(xué)習(xí)需要環(huán)境提供一組示例,而示例學(xué)習(xí)只要環(huán)境提供一個(gè)示例B、機(jī)械式學(xué)習(xí)有推理能力C、符號(hào)學(xué)習(xí)對(duì)模擬人類較低級(jí)的神經(jīng)活動(dòng)是比較有效的D、觀察與發(fā)現(xiàn)學(xué)習(xí)是基于歸納推理的146.關(guān)于過(guò)擬合現(xiàn)象,說(shuō)法正確的是()。A、訓(xùn)練誤差小,測(cè)試誤差卻大B、訓(xùn)練誤差小,測(cè)試誤差也小C、模型的泛化能力高D、以上都不正確147.關(guān)于窗體的作用,敘述錯(cuò)誤的是()。A、可以接收用戶輸入的數(shù)據(jù)或命令B、可以編輯,顯示數(shù)據(jù)庫(kù)中的數(shù)據(jù)C、可以構(gòu)造方便美觀的輸入/輸出界面D、可以直接儲(chǔ)存數(shù)據(jù)148.關(guān)于查詢的設(shè)計(jì)視圖,說(shuō)法不正確的是()。A、可以進(jìn)行數(shù)據(jù)記錄的添加B、可以進(jìn)行查詢條件的設(shè)定C、可以進(jìn)行查詢字段是否顯示的設(shè)定D、可以進(jìn)行查詢表的設(shè)定149.關(guān)于Python語(yǔ)言的特點(diǎn),說(shuō)法正確的是()。A、Python語(yǔ)言不支持面向?qū)ο驜、Python語(yǔ)言是解釋型語(yǔ)言C、Python語(yǔ)言是編譯型語(yǔ)言D、Python語(yǔ)言是非跨平臺(tái)語(yǔ)言150.關(guān)于K-近鄰算法,()說(shuō)法是正確的。A、K值越大,模型越簡(jiǎn)單B、K值越小,模型越復(fù)雜C、K值的選擇對(duì)結(jié)果沒(méi)有影響D、K值必須是偶數(shù)151.關(guān)于Attention-basedModel,說(shuō)法正確的是()。A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對(duì)輸出的比例模型D、以上都不是152.防止欠擬合的方法是()。A、調(diào)整超參數(shù)B、早停止D、正則化153.對(duì)于圖像數(shù)據(jù),()不是常見(jiàn)的預(yù)處理步驟。A、灰度化B、歸一化D、文本分詞154.大模型訓(xùn)練時(shí),通常通過(guò)()監(jiān)測(cè)模型的訓(xùn)練進(jìn)度和性能。A、精度與召回率B、損失函數(shù)曲線C、驗(yàn)證集上的準(zhǔn)確率155.創(chuàng)建視圖的命令是()。156.窗口事件是指操作窗口時(shí)引發(fā)的事件,下列不屬于窗口事件的是()。A、打開(kāi)D、取消157.傳感器的輸出信號(hào)達(dá)到穩(wěn)定時(shí),輸出信號(hào)變化與輸入信號(hào)變化的比值代表傳感器的()參數(shù)。B、精度C、線性度D、靈敏度158.處理不平衡數(shù)據(jù)集時(shí),通常不推薦()方法。A、過(guò)采樣少數(shù)類B、欠采樣多數(shù)類C、生成合成樣本A、語(yǔ)音識(shí)別B、圖像識(shí)別C、文本審核C、K均值算法D、樸素貝葉斯算法163.不屬于TensorFlow20特點(diǎn)的是()。A、多核CPU加速164.不是kafka適合的應(yīng)用場(chǎng)景是()。A、日志收集B、消息系統(tǒng)C、業(yè)務(wù)系統(tǒng)D、流式處理165.不是Flume特點(diǎn)的是()。B、集中式架構(gòu)C、可擴(kuò)展性D、可管理性166.表格式窗體同一時(shí)刻能顯示()。C、3條記錄D、多條記錄參考答案:D167.標(biāo)注出一句話中的動(dòng)詞屬于()。A、分詞標(biāo)注C、詞性標(biāo)注D、實(shí)體標(biāo)注168.阿爾法狗系列機(jī)器人曾與()出戰(zhàn)過(guò)圍棋比賽。169.ROM中的信息是()。A、生產(chǎn)廠家預(yù)先寫(xiě)入的B、計(jì)算機(jī)工作時(shí)隨機(jī)寫(xiě)入的C、防止計(jì)算機(jī)病毒侵入所使用的D、專門用于計(jì)算機(jī)開(kāi)機(jī)時(shí)自檢的參考答案:A參考答案:B參考答案:A172.Rasa的組成中包括()。①Rasa-X②Rasa-NLU③Rasa-NLP④R173.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)經(jīng)常用來(lái)減少泛化誤差的方法,以下說(shuō)法正確的是()。A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇174.Keras提供了一種簡(jiǎn)潔的方法來(lái)創(chuàng)建基于TensorFlow或Theano的深度學(xué)習(xí)模型,并運(yùn)用了各種優(yōu)化技術(shù)使神經(jīng)網(wǎng)絡(luò)API調(diào)用變得輕松高效。下列功能屬于Keras特點(diǎn)的是()。A、模塊化B、用戶界面不友好175.DataFrame.dropna函數(shù)的thresh參數(shù)值為6時(shí)表示()。A、有效數(shù)據(jù)小于6的行B、有效數(shù)據(jù)大于6的行C、有效數(shù)據(jù)等于6的行D、有效數(shù)據(jù)不等于6的行176.COCO數(shù)據(jù)集是由()出資建設(shè)的。B、微軟C、谷歌D、阿里巴巴177.CNN中卷積層的主要特性是()。A、局部感知B、權(quán)值共享C、感受野D、以上都是178.Access自動(dòng)創(chuàng)建窗體的方式有()種。179.“小男孩2歲了,第1次和奶奶一起旅行?!边@句話經(jīng)過(guò)文本正則歸整后的結(jié)果是()。A、小男孩兩歲了,第一次和奶奶一起旅行B、小男孩二歲了,第一次和奶奶一起旅行C、小男孩2歲了,第1次和奶奶1起旅行D、小男孩兩歲了,第1次和奶奶一起旅行180.“機(jī)器人”這一詞最早出現(xiàn)在()作家的小說(shuō)中。A、德國(guó)C、瑞士D、捷克181.()用于聲明一個(gè)張量的數(shù)據(jù)格式,告訴系統(tǒng)這里會(huì)有一個(gè)這種格式的張量,但是還沒(méi)有給定具體數(shù)值,具體的數(shù)值要在正D、字符串182.()因素會(huì)影響合成語(yǔ)音的質(zhì)量。A、漢字的復(fù)雜程度B、拼音借用英文字母C、漢字筆畫(huà)和圖畫(huà)混淆D、語(yǔ)音數(shù)據(jù)的標(biāo)注質(zhì)量183.()是圖形化交互,()是語(yǔ)音交互,()是對(duì)話式交互。①184.()是損失函數(shù)(LossFunction)在深度學(xué)習(xí)中的作用。A、測(cè)量模型的準(zhǔn)確性B、優(yōu)化模型參數(shù)C、評(píng)估模型輸出與實(shí)際值之間的差異D、提高模型的泛化能力185.()是深度學(xué)習(xí)在自然語(yǔ)言處理領(lǐng)域的一個(gè)重要應(yīng)用。C、專家系統(tǒng)186.()是人以自然語(yǔ)言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語(yǔ)言學(xué)、心理學(xué)、工程計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。B、情感交互D、腦機(jī)交互參考答案:A187.()是Hinton的DarkKnowledge。A、生成對(duì)抗網(wǎng)絡(luò)B、基于注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)C、模型壓縮知識(shí)蒸餾D、元學(xué)習(xí)框架188.()可以用于加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過(guò)程。A、增加訓(xùn)練樣本B、使用更復(fù)雜的模型D、使用GPU加速189.()可以包含另一個(gè)選擇或操作查詢中SQLSELECT語(yǔ)句,可以在查詢?cè)O(shè)計(jì)網(wǎng)格“字段”行輸入這些語(yǔ)句來(lái)定義新字段,或在“準(zhǔn)則”行來(lái)定義字段的準(zhǔn)則。B、傳遞查詢C、數(shù)據(jù)定義查詢D、子查詢190.()技術(shù)不是用于增強(qiáng)現(xiàn)實(shí)(AR)的關(guān)鍵組成部分。A、深度學(xué)習(xí)B、激光雷達(dá)C、頭戴式顯示設(shè)備D、傳感器191.()功能不包含在環(huán)形麥克風(fēng)陣列技術(shù)中。A、語(yǔ)音降噪B、回聲消除C、聲源定向D、語(yǔ)音合成192.()的操作不能提升項(xiàng)目質(zhì)量。A、頻繁押后不會(huì)做的題目B、直接提交預(yù)標(biāo)注結(jié)果C、及時(shí)查看標(biāo)注錯(cuò)題D、人效較高同學(xué)分享標(biāo)注技巧193.()不屬于遷移學(xué)習(xí)的基本問(wèn)題。B、何處遷移C、如何遷移D、遷移多少194.()不是圖像識(shí)別中常用的深度學(xué)習(xí)模型。A、CNN(卷積神經(jīng)網(wǎng)絡(luò))B、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))195.()不是數(shù)據(jù)采集和標(biāo)注的關(guān)鍵環(huán)節(jié)。C、數(shù)據(jù)標(biāo)注D、數(shù)據(jù)清洗196.()不是深度學(xué)習(xí)的基本組成。B、循環(huán)神經(jīng)網(wǎng)絡(luò)D、主成分分析197.()不是決策樹(shù)常用的剪枝方法。D、代價(jià)復(fù)雜度剪枝198.()不是聚類分析的常用算法。B、決策樹(shù)D、層次聚類參考答案:B199.()不是XGBoost相比于GBDT的改進(jìn)之處。A、使用了二階導(dǎo)數(shù)信息B、支持列子采樣C、使用了L1和L2正則化D、只能用于二分類問(wèn)題200.()包含人臉檢測(cè)與屬性分析、人臉對(duì)比、人臉?biāo)阉鞯?。A、人臉識(shí)別B、數(shù)據(jù)挖掘C、機(jī)器學(xué)習(xí)D、深度學(xué)習(xí)1.最基礎(chǔ)的數(shù)據(jù)標(biāo)注團(tuán)隊(duì)至少有()等崗位角色。A、計(jì)算機(jī)維護(hù)人員B、數(shù)據(jù)標(biāo)注員C、質(zhì)檢員D、項(xiàng)目負(fù)責(zé)人2.智能的特點(diǎn)是()。A、能對(duì)環(huán)境進(jìn)行靈活的應(yīng)對(duì)C、具有十分牢固的記憶力D、經(jīng)濟(jì)高效3.智能包含的能力有()。A、感知能力B、記憶和思維能力C、學(xué)習(xí)和自適應(yīng)能力D、行為能力4.智慧教育的支撐技術(shù)包括()。A、物聯(lián)網(wǎng)D、泛在網(wǎng)絡(luò)5.在自然語(yǔ)言處理中,()技術(shù)可以用于提高機(jī)器翻譯的質(zhì)量。A、引入注意力機(jī)制B、數(shù)據(jù)增強(qiáng)C、使用預(yù)訓(xùn)練模型D、序列到序列模型6.在自然語(yǔ)言處理任務(wù)中,()技術(shù)適用于提升自動(dòng)文本摘要生成、情感分析的性能和準(zhǔn)確性。A、引入預(yù)訓(xùn)練模型B、序列到序列模型C、注意力機(jī)制D、數(shù)據(jù)增強(qiáng)7.在自然語(yǔ)言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成和機(jī)器翻譯的質(zhì)量。A、引入預(yù)訓(xùn)練模型B、注意力機(jī)制C、序列到序列模型D、數(shù)據(jù)增強(qiáng)8.在自然語(yǔ)言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成、情感分析和機(jī)器翻譯的性能。A、序列到序列模型B、引入預(yù)訓(xùn)練模型C、注意力機(jī)制D、序列標(biāo)注9.在自然語(yǔ)言處理任務(wù)中,()技術(shù)可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性。A、序列到序列模型B、注意力機(jī)制C、引入預(yù)訓(xùn)練模型D、數(shù)據(jù)增強(qiáng)10.在自然語(yǔ)言處理任務(wù)中,()技術(shù)可以用于提升文本分類、實(shí)體識(shí)別和情感分析的準(zhǔn)確性和效率。A、引入預(yù)訓(xùn)練模型C、注意力機(jī)制11.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過(guò)程中,()方法可以用于防止過(guò)擬合。B、權(quán)重衰減(WeightDecay)D、學(xué)習(xí)率衰減(LearningRateDecay)12.在深度學(xué)習(xí)模型中,()技術(shù)可以用于提高圖像數(shù)據(jù)處理的效A、使用卷積神經(jīng)網(wǎng)絡(luò)C、批量歸一化D、使用Dropout13.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型訓(xùn)練的穩(wěn)A、批量歸一化D、數(shù)據(jù)增強(qiáng)14.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型的收斂速度和減輕梯度消失問(wèn)題。A、梯度裁剪B、使用ReLU激活函數(shù)C、批量歸一化參考答案:ABC15.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于防止模型過(guò)擬合并提高模型在不同任務(wù)上的表現(xiàn)。A、使用卷積神經(jīng)網(wǎng)絡(luò)B、數(shù)據(jù)增強(qiáng)D、批量歸一化參考答案:BCD16.在深度學(xué)習(xí)模型設(shè)計(jì)中,()技術(shù)可以用于提高模型在圖像分類和文本處理任務(wù)上的泛化能力。A、數(shù)據(jù)增強(qiáng)B、使用卷積神經(jīng)網(wǎng)絡(luò)C、使用DropoutD、批量歸一化參考答案:ABCD17.在三層模式結(jié)構(gòu)中,()是數(shù)據(jù)庫(kù)的核心和關(guān)鍵,()通常是模式的子集,數(shù)據(jù)按模式的描述提供給用戶、按()的描述存儲(chǔ)在硬盤上。A、模式B、外模式C、內(nèi)模式D、數(shù)據(jù)結(jié)構(gòu)參考答案:ABC18.在任務(wù)欄上可以顯示的工具欄是()。A、地址B、鏈接C、桌面D、快速啟動(dòng)參考答案:ABCD19.在SQL語(yǔ)句中,X為INT數(shù)據(jù)類型,可以用來(lái)表示"10<X<15"的是()。參考答案:ACD20.語(yǔ)音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)據(jù)量,便于音頻數(shù)據(jù)的存儲(chǔ)和傳輸。常用的編碼格式有()。21.語(yǔ)法類異常包括()。A、不規(guī)則的取值B、值域格式錯(cuò)誤C、詞法錯(cuò)誤D、數(shù)據(jù)中存在重復(fù)值22.以下敘述正確的是()。A、continue語(yǔ)句的作用是結(jié)束整個(gè)循環(huán)的執(zhí)行B、在循環(huán)體內(nèi)使用break語(yǔ)句或continue語(yǔ)句的作用相同C、只能在循環(huán)體內(nèi)使用break語(yǔ)句D、從多層循環(huán)嵌套中退出時(shí),可以使用break或continue語(yǔ)句23.一個(gè)計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)包含()等三個(gè)主要組成部分。B、若干主機(jī)C、傳輸介質(zhì)D、通信設(shè)備E、通信協(xié)議24.下列用戶的電子郵件地址中,錯(cuò)誤的是()。A、用戶名,用戶口令,電子郵箱所在的主機(jī)域名B、用戶名,用戶口令C、用戶名,電子郵箱所在的主機(jī)域名D、用戶口令,電子郵箱所在的主機(jī)域名25.下列計(jì)算機(jī)部件中()包含在主機(jī)內(nèi)。D、只讀存儲(chǔ)器26.下列()是未來(lái)計(jì)算機(jī)的發(fā)展趨勢(shì)。A、提高性能B、縮小體積C、減少成本D、與通信技術(shù)結(jié)合E、與多媒體技術(shù)結(jié)合27.下列()是沖突操作。A、對(duì)同一個(gè)數(shù)據(jù)的讀寫(xiě)操作B、對(duì)不同數(shù)據(jù)的讀寫(xiě)操作C、對(duì)不同數(shù)據(jù)的寫(xiě)寫(xiě)操作D、對(duì)同一數(shù)據(jù)的寫(xiě)寫(xiě)操作28.無(wú)人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別。C、深度學(xué)習(xí)算法29.為了進(jìn)行分類模型的訓(xùn)練和性能評(píng)價(jià),需要將輸入的標(biāo)注數(shù)據(jù)劃分為()。A、數(shù)據(jù)的類標(biāo)B、測(cè)試集C、數(shù)據(jù)的特征D、訓(xùn)練集30.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括()。A、采樣D、旋轉(zhuǎn)31.圖像存儲(chǔ)格式包括()。32.通用網(wǎng)絡(luò)爬蟲(chóng)基本工作流程包括()。A、打開(kāi)瀏覽器C、數(shù)據(jù)存儲(chǔ)D、預(yù)處理33.調(diào)查用戶的具體步驟主要有()。A、調(diào)查組織機(jī)構(gòu)情況B、調(diào)查各部門的業(yè)務(wù)活動(dòng)情況C、協(xié)助用戶明確對(duì)新系統(tǒng)的各種要求D、確定新系統(tǒng)的邊界34.特征向量的形成過(guò)程包括()。A、特征形成B、特征提取C、特征選擇D、特征評(píng)判35.數(shù)字圖像處理一般要完成的任務(wù)有()。A、圖像增強(qiáng)B、圖像變換C、圖像獲取D、圖像識(shí)別36.數(shù)據(jù)庫(kù)設(shè)計(jì)過(guò)程中形成數(shù)據(jù)庫(kù)的各級(jí)模式,大致可以總結(jié)為A、概念設(shè)計(jì)階段形成概念模式B、邏輯設(shè)計(jì)階段形成邏輯模式和外模式C、物理設(shè)計(jì)階段形成內(nèi)模式D、概念設(shè)計(jì)階段形成子模式37.數(shù)據(jù)庫(kù)名稱合法的是()。38.數(shù)據(jù)的完整性是指數(shù)據(jù)的()。D、有效性39.屬于小波去噪步驟的有()。A、對(duì)圖像信號(hào)進(jìn)行小波分解B、對(duì)經(jīng)過(guò)層次分解后的高頻系數(shù)進(jìn)行閾值量化C、利用二維小波重構(gòu)圖像信號(hào)D、通過(guò)長(zhǎng)波實(shí)現(xiàn)噪聲消除40.屬于特征選擇的優(yōu)點(diǎn)有()。A、解決模型自身的缺陷B、減少過(guò)擬合C、提升模型的性能D、增強(qiáng)模型的泛化能力41.適合使用Python的有()。A、可作為腳本語(yǔ)言,快速編寫(xiě)小型程序、腳本等B、可應(yīng)用在數(shù)據(jù)科學(xué)、交互式計(jì)算及可視化領(lǐng)域C、可作為膠水語(yǔ)言,整合如C++等語(yǔ)言代碼D、Python適用于低延時(shí)、高利用率的應(yīng)用場(chǎng)景42.神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,()技術(shù)可以幫助防止過(guò)擬合。C、數(shù)據(jù)增強(qiáng)D、權(quán)重衰減(L2正則化)E、批量歸一化43.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是()。A、理論沒(méi)有發(fā)展起來(lái)B、科學(xué)界不重視C、計(jì)算能力跟不上D、標(biāo)注數(shù)據(jù)不足44.人們從不同的角度去觀察問(wèn)題,對(duì)模式分解等價(jià)的概念形成了()的不同定義。A、分解具有無(wú)損連接性B、分解保持函數(shù)依賴C、分解既要無(wú)損連接,也要保持函數(shù)依賴D、分解既不無(wú)損連接,也不保持函數(shù)依賴45.人工智能發(fā)展的三階段是指()。C、知識(shí)期D、機(jī)器學(xué)習(xí)期46.人工智能的基礎(chǔ)包括()。B、計(jì)算機(jī)科學(xué)D、心理學(xué)47.人工智能催生新技術(shù)()。A、生產(chǎn)方式B、生活方式C、行為模式D、思維模式48.命名實(shí)體包括()。C、機(jī)構(gòu)名49.每個(gè)獨(dú)立的視頻標(biāo)簽應(yīng)包括()信息。A、標(biāo)簽編碼B、文件路標(biāo)C、置信度50.聯(lián)想存儲(chǔ)的特點(diǎn)是()。A、可以存儲(chǔ)許多相關(guān)(激勵(lì)、響應(yīng))模式B、以分布穩(wěn)健的方式存儲(chǔ)信息C、即使輸入激勵(lì)模式完全失真時(shí),仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲(chǔ)中加入新的存儲(chǔ)模式51.可以對(duì)數(shù)據(jù)庫(kù)RDS參數(shù)模板進(jìn)行()操作。52.卷積神經(jīng)網(wǎng)絡(luò)采用了()的方式,降低了計(jì)算量和過(guò)擬合的風(fēng)A、局部連接B、全局變量C、權(quán)值共享53.進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測(cè)試集54.交換機(jī)堆疊后,主交換機(jī)的選舉方式有()。A、用戶指定B、自動(dòng)選舉C、堆疊后,邏輯上是一個(gè)交換機(jī),因此堆疊成員沒(méi)有主備D、順序產(chǎn)生55.計(jì)算機(jī)按照所處理的數(shù)據(jù)類型可以分為()。A、數(shù)字計(jì)算機(jī)B、模擬計(jì)算機(jī)C、混合計(jì)算機(jī)D、通用計(jì)算機(jī)56.基因遺傳算法常用的結(jié)束條件包括()。A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的變異次數(shù)D、達(dá)到一定的交叉次數(shù)57.關(guān)于自然語(yǔ)言處理正確的是()。A、目前最先進(jìn)的自然語(yǔ)言處理技術(shù)基于深度學(xué)習(xí)模型B、自然語(yǔ)言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過(guò)圖靈測(cè)試C、文本標(biāo)注的對(duì)象是自然語(yǔ)言文本D、文本標(biāo)注主要用于無(wú)監(jiān)督學(xué)習(xí)58.關(guān)于主鍵,說(shuō)法正確的是()。A、可以是表中的一個(gè)字段B、是確定數(shù)據(jù)庫(kù)中的表的記錄的唯一標(biāo)識(shí)字段C、該字段不可為空也不可以重復(fù)D、可以是表中的多個(gè)字段組成的59.關(guān)于神經(jīng)網(wǎng)絡(luò)的組織特性,說(shuō)法正確的是()。A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、做出交互反應(yīng)60.關(guān)于刪除操作,說(shuō)法正確的是()。61.關(guān)于DELETE和TRUNCATETABLE的說(shuō)法,正確的是()。A、兩者都可以刪除指定條目的記錄B、前者可以刪除指定條目的記錄,后者不能C、兩者都返回被刪除記錄的數(shù)目D、前者返回被刪除記錄數(shù)目,后者不返回62.關(guān)系數(shù)據(jù)庫(kù)查詢處理可分為()步驟。C、查詢優(yōu)化D、查詢執(zhí)行63.關(guān)系的完整性主要是指()。B、引用完整性C、用戶定義的完整性D、數(shù)據(jù)完整性64.谷歌相冊(cè)與傳統(tǒng)手機(jī)相冊(cè)最大的不同點(diǎn)是()。A、根據(jù)照片內(nèi)容自動(dòng)添加標(biāo)記B、根據(jù)不同標(biāo)記進(jìn)行歸類和搜索C、自動(dòng)對(duì)照片進(jìn)行美顏D、定時(shí)備份照片E、人臉識(shí)別和搜索65.反向傳播算法中,梯度下降的作用是()。A、計(jì)算神經(jīng)網(wǎng)絡(luò)權(quán)重的梯度B、更新網(wǎng)絡(luò)的權(quán)重和偏差C、提高模型的泛化能力66.度量泛化能力好壞的最直觀表現(xiàn)是模型的()。D、準(zhǔn)確度67.大數(shù)據(jù)的業(yè)務(wù)應(yīng)用處理需要經(jīng)過(guò)()的流程。B、數(shù)據(jù)清洗C、數(shù)據(jù)建模D、數(shù)據(jù)加工68.從機(jī)器學(xué)習(xí)預(yù)測(cè)目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分為A、回歸問(wèn)題B、分類問(wèn)題C、識(shí)別問(wèn)題69.常用的外存貯器有()。B、隨機(jī)存取存儲(chǔ)器RAMC、硬盤驅(qū)動(dòng)器D、掃描儀E、優(yōu)盤70.常用的圖像數(shù)據(jù)標(biāo)注工具包括()。71.不屬于強(qiáng)化學(xué)習(xí)目標(biāo)的是()。A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解72.并發(fā)操作可能會(huì)帶來(lái)的數(shù)據(jù)不一致性有()。A、丟失修改B、不可重復(fù)讀C、讀臟數(shù)據(jù)D、死鎖A、語(yǔ)音交互B、情感交互C、體感交互D、腦機(jī)交互74.按照智能應(yīng)用場(chǎng)景,語(yǔ)音數(shù)據(jù)標(biāo)注任務(wù)可劃分為()。A、智能家居D、智能車載75.URL組成()。A、檢索方式(協(xié)議)B、計(jì)算機(jī)服務(wù)器名稱C、文檔目錄和文件名D、任何隨意的檢索詞76.SQL中定義事務(wù)的語(yǔ)句主要有()。77.SQL語(yǔ)言的數(shù)據(jù)操縱功能通常包括()動(dòng)詞。78.JSON信息概念包括()。B、對(duì)象C、屬性79.INTERNET提供的服務(wù)主要有()。80.DELETE(DEL)鍵的功能是()。A、刪除光標(biāo)前一個(gè)字符B、與CTRL和ALT合用,完成熱啟動(dòng)C、刪除光標(biāo)上的字符D、與Backspace(退格鍵)功能相同E、與Shift鍵配合,可以一次刪除一行81.CSE微服務(wù)引擎支持()功能。B、服務(wù)配置D、高性能微服務(wù)框架82.BERT模型架構(gòu)的優(yōu)勢(shì)包括()。B、能夠處理長(zhǎng)序列數(shù)據(jù)C、適合大規(guī)模數(shù)據(jù)集D、低資源消耗83.ASR在中文領(lǐng)域有很大的難度,主要原因是()。A、中文博大精深B、方言眾多C、目前ASR技術(shù)不成熟D、數(shù)據(jù)量不夠84.a=np.array([1,2,3,4,5,6,7,8]),()可以使輸出結(jié)果為([5,7])。85.()用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好。A、語(yǔ)音識(shí)別B、自然語(yǔ)言處理C、圖像識(shí)別D、人臉識(shí)別86.()因素可能影響神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果。B、批量大小C、損失函數(shù)的選擇D、激活函數(shù)的選擇E、數(shù)據(jù)集的規(guī)模87.()是正確的Python字符串。88.()是圖像分割中常用的基于區(qū)域的方法。B、MeanShift算法C、分水嶺算法D、直方圖均衡化89.()是數(shù)值數(shù)據(jù)類型(即可用于算術(shù)表達(dá)式)。D、“1002”90.()是輸出設(shè)備。A、打印機(jī)C、掃描儀D、顯示器91.()是事務(wù)特性。B、持久性C、原子性D、一致性92.()是生成式人工智能模型訓(xùn)練方法的特點(diǎn)。A、使用經(jīng)典優(yōu)化器C、分布式訓(xùn)練93.()是人類特有的,而機(jī)器所不具備的。94.()是人工智能的子領(lǐng)域。A、自然語(yǔ)言處理B、人類行為學(xué)C、機(jī)器視覺(jué)D、電腦維護(hù)95.()是典型的自然語(yǔ)言處理(NLP)任務(wù)。A、語(yǔ)音識(shí)別B、文本分類C、圖像分割D、機(jī)器翻譯96.()是常見(jiàn)的機(jī)器學(xué)習(xí)算法。A、支持向量機(jī)(SVM)C、深度學(xué)習(xí)D、決策樹(shù)97.()可用于數(shù)據(jù)采集技術(shù)。98.()可以認(rèn)為是計(jì)算機(jī)視覺(jué)的任務(wù)。A、圖像存儲(chǔ)B、圖像/視頻中文字的檢測(cè)和識(shí)別C、視頻中感興趣目標(biāo)的檢測(cè)跟蹤和定位D、圖像中前景物體與背景的分割99.()行業(yè)需要用到數(shù)據(jù)采集。B、政府C、金融反欺詐D、教育100.()方法可以用于提高神經(jīng)網(wǎng)絡(luò)模型的泛化能力。B、正則化C、使用更大的網(wǎng)絡(luò)結(jié)構(gòu)D、批量歸一化E、交叉驗(yàn)證判斷題1.自然語(yǔ)言包括人類交流的語(yǔ)言——口語(yǔ)、書(shū)面語(yǔ)、手語(yǔ)、旗語(yǔ)等,而人造語(yǔ)言是在自然語(yǔ)言基礎(chǔ)上改良的自然語(yǔ)言。2.注意力機(jī)制只適用于提高機(jī)器翻譯的準(zhǔn)確性。3.注意力機(jī)制能夠提升模型對(duì)長(zhǎng)距離依賴關(guān)系的捕捉能力。4.注意力機(jī)制能夠提高深度學(xué)習(xí)模型的泛化能力。B、錯(cuò)誤5.注意力機(jī)制能夠提高模型對(duì)長(zhǎng)距離依賴的捕捉能力。6.智能家居應(yīng)該能自動(dòng)感知周圍的環(huán)境,不需要人的操控。7.針對(duì)數(shù)據(jù)標(biāo)注疑問(wèn)案例分類型整理,可對(duì)項(xiàng)目質(zhì)量提升產(chǎn)生正向增益。B、錯(cuò)誤8.針對(duì)電力元件故障的預(yù)測(cè)模型需要較高的泛化能力這一問(wèn)題,可選用Adaboost集成算法提升性能。Adaboost算法是一種帶有自適應(yīng)功能、可以自動(dòng)調(diào)整權(quán)值的Bagging集成算法。B、錯(cuò)誤9.召回率(Recall)是指分類正確的正樣本個(gè)數(shù)(TP)占真正的正樣本個(gè)數(shù)(TP+FN)的比例。長(zhǎng)期依賴問(wèn)題,比標(biāo)準(zhǔn)RNN表現(xiàn)更好。11.在圖像處理中,采樣越細(xì),像素越小,越能精確地表現(xiàn)圖像。12.在搜索數(shù)據(jù)庫(kù)中的數(shù)據(jù)時(shí),SQL通配符可以替代一個(gè)或多個(gè)字符,SQL通配符必須與LIKE運(yùn)算符一起使用。13.在數(shù)據(jù)庫(kù)的三級(jí)模式結(jié)構(gòu)中,內(nèi)模式可以有多個(gè)。14.在數(shù)據(jù)標(biāo)注中,當(dāng)標(biāo)注人員標(biāo)注的數(shù)據(jù)被質(zhì)檢人員判誤,可以15.在數(shù)據(jù)標(biāo)注過(guò)程中,“圖片非正常顯示”屬于標(biāo)注平臺(tái)可能出16.在使用子查詢時(shí),必須使用括號(hào)把子查詢括起來(lái),以便區(qū)分外17.在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化對(duì)模型的訓(xùn)練速度和性能沒(méi)有影18.在深度學(xué)習(xí)模型訓(xùn)練中,學(xué)習(xí)率越大,行推理和決策的技術(shù)。20.在進(jìn)行數(shù)據(jù)查詢時(shí),不能指定查詢結(jié)果的標(biāo)題,只能用字段名21.在機(jī)器學(xué)習(xí)中,模型選擇通常指的是從多個(gè)候選模型中選擇最B、錯(cuò)誤22.在關(guān)系理論中,把能夠唯一地確定一個(gè)元組的屬性或?qū)傩越M合23.在表中創(chuàng)建一個(gè)標(biāo)識(shí)列(IDENTITY),當(dāng)用戶向表中插入新的數(shù)據(jù)行時(shí),系統(tǒng)自動(dòng)為該行標(biāo)識(shí)列賦值。24.語(yǔ)音識(shí)別、計(jì)算機(jī)視覺(jué)等領(lǐng)域的突破離不開(kāi)深度學(xué)習(xí)算法。25.語(yǔ)言識(shí)別是人工智能的重要分支之一,它解決的是不僅能聽(tīng)人們?cè)谡f(shuō)什么,而且能聽(tīng)懂這些話的意思。26.與超聲傳感器相比,紅外測(cè)距的準(zhǔn)確度更高。B、錯(cuò)誤27.由于不同地方有不同的文化,機(jī)器翻譯有時(shí)會(huì)出現(xiàn)歧義。28.用傳感器采集環(huán)境信息是機(jī)器人智能化的第一步。29.引入預(yù)訓(xùn)練模型可以提高深度學(xué)習(xí)模型在新任務(wù)上的表現(xiàn)。參考答案:A30.引入預(yù)訓(xùn)練模型可以縮短模型訓(xùn)練時(shí)間。31.一個(gè)數(shù)據(jù)表只能有一個(gè)唯一索引。參考答案:B32.一般優(yōu)秀的詩(shī)詞都是從真情實(shí)感出發(fā)。B、錯(cuò)誤33.巡檢缺陷樣本標(biāo)注時(shí),缺陷目標(biāo)框大小與照片的比例應(yīng)盡可能參考答案:B34.序列標(biāo)注任務(wù)適合使用注意力機(jī)制來(lái)提升性能。35.虛擬IP主要用在云服務(wù)器的主備切換,達(dá)到高可用性HA(H36.新中國(guó)第一家證券交易所創(chuàng)立于北京東城。37.相同型號(hào)的機(jī)器人面對(duì)相同的大數(shù)據(jù)、相同的算法,會(huì)做出相同的股票操作策略。38.現(xiàn)在要設(shè)計(jì)一個(gè)節(jié)點(diǎn),開(kāi)發(fā)路徑規(guī)劃功能,輸入是目標(biāo)點(diǎn)和起始點(diǎn),輸出是路徑,適合用Topic通信方式。39.物聯(lián)網(wǎng)的數(shù)據(jù)處理技術(shù)主要是實(shí)現(xiàn)數(shù)據(jù)的存儲(chǔ)、處理、分析、決策與高效應(yīng)用。40.文本挖掘又稱信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、有用的、可理解的、可操作的知識(shí)的過(guò)程。41.文本標(biāo)注是將文字、標(biāo)點(diǎn)在內(nèi)的文本進(jìn)行標(biāo)注,是計(jì)算機(jī)能夠讀懂識(shí)別從而應(yīng)用于人類的生產(chǎn)領(lǐng)域。42.謂詞的個(gè)體,可以是一個(gè)常量,也可以是一個(gè)變?cè)?,還可以是43.位置傳感器是指能感受被測(cè)物的位置并轉(zhuǎn)換成可用輸出信號(hào)44.維修人員必須保管好機(jī)器人鑰匙,嚴(yán)禁非授權(quán)人員在手動(dòng)模式下進(jìn)入機(jī)器人軟件系統(tǒng)隨意翻閱或修改程序及參數(shù)。45.為了讓MySQL較好地支持中文,在安裝MySQL時(shí),應(yīng)該將數(shù)據(jù)庫(kù)服務(wù)器的缺省字符集設(shè)定為gb2312。46.微服務(wù)架構(gòu)模式下.開(kāi)發(fā)者無(wú)法自由選擇開(kāi)發(fā)技術(shù)來(lái)提供API47.圖像二值化處理是將圖像中感興趣的部分置1、背景部分置2。48.圖靈認(rèn)為人工智能應(yīng)當(dāng)是一個(gè)模擬成人成熟思維的系統(tǒng)。49.圖靈測(cè)試存在的潛臺(tái)詞是機(jī)器智能的極限可以超越人的智能,機(jī)器智能可以不與人的智能比擬。50.同一個(gè)Topic上可以有多個(gè)發(fā)布者。51.提示學(xué)習(xí)是一種通過(guò)提供大量樣本進(jìn)行學(xué)習(xí)的方法。52.梯度裁剪僅適用于卷積神經(jīng)網(wǎng)絡(luò)(CNN)。53.特征提取方式需要根據(jù)語(yǔ)音單元的特點(diǎn)提取。54.隨著訓(xùn)練樣本數(shù)據(jù)量的提升,模型的泛化誤差上界越小,泛化能力也隨之提升。55.數(shù)字化示范需統(tǒng)籌考慮公司數(shù)字化轉(zhuǎn)型發(fā)展戰(zhàn)略綱要和“十四五”數(shù)字化規(guī)劃,打造四層兩類示范,即縱貫(總部、省、市、縣)四個(gè)層級(jí)的專項(xiàng)示范和綜合示范。B、錯(cuò)誤參考答案:B56.數(shù)據(jù)增強(qiáng)技術(shù)可以用于提高自然語(yǔ)言處理任務(wù)的性能。57.數(shù)據(jù)增強(qiáng)技術(shù)可以用于減輕深度學(xué)習(xí)模型的過(guò)擬合問(wèn)題。58.數(shù)據(jù)增強(qiáng)技術(shù)可以通過(guò)添加噪聲來(lái)實(shí)現(xiàn)。59.數(shù)據(jù)預(yù)處理是在大數(shù)據(jù)和人工智能領(lǐng)域中常見(jiàn)的操作,用于清洗、轉(zhuǎn)換和歸一化原始數(shù)據(jù)。60.數(shù)據(jù)試標(biāo)只存在于短期高頻項(xiàng)目,長(zhǎng)期項(xiàng)目不用試標(biāo)。61.數(shù)據(jù)清洗是指為了保證模型訓(xùn)練效果,利用僅有的數(shù)據(jù)樣本生成額外的人工合成的數(shù)據(jù),提升泛化能力。62.數(shù)據(jù)庫(kù)恢復(fù)是使被故障破壞掉的數(shù)據(jù)恢復(fù)到故障前的某種數(shù)據(jù)一致的狀態(tài)。63.數(shù)據(jù)庫(kù)安全審計(jì)的操作日志默認(rèn)會(huì)一直保存。64.數(shù)據(jù)科學(xué)是根據(jù)數(shù)據(jù)世界的分析結(jié)果,對(duì)現(xiàn)實(shí)世界進(jìn)行預(yù)測(cè)、洞見(jiàn)、解釋或決策的新興科學(xué)。65.數(shù)據(jù)科學(xué)流程的特殊性在于需要將科學(xué)家的3C精神融入業(yè)務(wù)66.視圖是一個(gè)虛擬表,并不表示任何物理數(shù)據(jù),只是用來(lái)查看數(shù)據(jù)的窗口而已。67.視覺(jué)相機(jī)可以獲取物體高度方向的位置信息。68.使用SQL語(yǔ)言的CREATETABLE命令可以直接建立表。69.使用Dropout技術(shù)能夠提高深度學(xué)習(xí)模型的訓(xùn)練速度。參考答案:B70.使用Dropout技術(shù)可以在一定程度上防止深度學(xué)習(xí)模型過(guò)擬71.使用Dropout技術(shù)可以有效防止深度學(xué)習(xí)模型的過(guò)擬合問(wèn)題。72.使用Dropout技術(shù)會(huì)顯著增加模型的訓(xùn)練時(shí)間。73.使用Dropout技術(shù)不會(huì)影響模型的最終性能。74.省級(jí)人工智能服務(wù)門戶提供運(yùn)行環(huán)境、模型庫(kù)、樣本庫(kù)、應(yīng)用管理等統(tǒng)一入口,提供通用模型、專用模型、應(yīng)用案例等開(kāi)放能力服務(wù)。75.神經(jīng)網(wǎng)絡(luò)是一種模仿人腦神經(jīng)元結(jié)構(gòu)和工作原理的計(jì)算模型。76.深度學(xué)習(xí)中的自編碼器AutoEncoder是一種無(wú)監(jiān)督學(xué)習(xí)算法,用于學(xué)習(xí)數(shù)據(jù)的壓縮表示。77.深度學(xué)習(xí)雖然是一個(gè)熱門領(lǐng)域,但是已有多年的發(fā)展歷史,主要有快速發(fā)展期和爆發(fā)期。78.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,主要關(guān)注如何使用神經(jīng)網(wǎng)絡(luò)79.深度學(xué)習(xí)模型中的正則化技術(shù),如L1和L2正則化,主要用于增加模型的復(fù)雜度,提高預(yù)測(cè)精度。B、錯(cuò)誤80.深度學(xué)習(xí)就是一種綠色人工智能。81.申請(qǐng)負(fù)載均衡創(chuàng)建的負(fù)載均衡為融合ELB時(shí),用戶可以通過(guò)添加黑名單的方式控制訪問(wèn)負(fù)載均衡的監(jiān)聽(tīng)器的IP。A、正確82.刪除錯(cuò)誤是指實(shí)際語(yǔ)音中有,但識(shí)別結(jié)果里沒(méi)有。83.若使用REVOKE命令撤消某用戶創(chuàng)建表的權(quán)限,則該用戶將84.任何包含前景和背景的圖像都可以使用大津法獲得最佳閾值。85.人效和準(zhǔn)確率是影響標(biāo)注數(shù)據(jù)指標(biāo)達(dá)成的因素。86.人類智能可以和機(jī)器智能相互融合。87.人機(jī)交互是指關(guān)于設(shè)計(jì)、評(píng)價(jià)和實(shí)現(xiàn)供人們使用的交互式計(jì)算機(jī)系統(tǒng),并圍繞相關(guān)的主要現(xiàn)象進(jìn)行研究的學(xué)科。88.人工智能算法不需要數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練。89.人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,是智能計(jì)算機(jī)系統(tǒng)即人類智慧在機(jī)器上的模擬,或者說(shuō)是人們使機(jī)器具有類似于人的智慧(對(duì)語(yǔ)言能理解、能學(xué)習(xí)、能推理)。B、錯(cuò)誤90.人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,即智能計(jì)算機(jī)系統(tǒng),也就是人類智慧在機(jī)器上的模擬,或者說(shuō)是人們使機(jī)器具有類似于人的智慧(對(duì)語(yǔ)言能理解、能學(xué)習(xí)、能推理)。91.人工智能是20世紀(jì)50年代才開(kāi)始研究的一項(xiàng)技術(shù),還沒(méi)有得到應(yīng)用。93.人工智能的發(fā)展完全依賴于算法的進(jìn)步,與數(shù)據(jù)的質(zhì)量和數(shù)量參考答案:B94.人工神經(jīng)元網(wǎng)絡(luò)只需要很少的數(shù)據(jù)便可掌握處理特定問(wèn)題的97.缺省情況下,所創(chuàng)建的索引是非聚集索引。A、正確98.前三次工業(yè)革命是機(jī)器人代替人的體力勞動(dòng),正在到來(lái)的人工智能革命將開(kāi)始代替腦力勞動(dòng)。99.批量歸一化有助于解決梯度消失問(wèn)題。B、錯(cuò)誤101.批量歸一化僅在全連接網(wǎng)絡(luò)中有效。B、錯(cuò)誤104.目前,學(xué)術(shù)界對(duì)人工智能已經(jīng)形成了統(tǒng)一標(biāo)準(zhǔn)的概念。105.目前,全球主要的國(guó)家和地區(qū)都已經(jīng)將人工智能視為戰(zhàn)略制高點(diǎn),加大力度進(jìn)行發(fā)展。106.目標(biāo)變量的影響因素可以是連續(xù)值也可以是離散值,自變量和目標(biāo)變量之間的關(guān)系被稱為模型。B、錯(cuò)誤107.路徑規(guī)劃方法通過(guò)對(duì)空間解析離散化或者隨機(jī)采樣來(lái)確保完108.零漂引起的放大電路輸出可視為共模輸出。109.靈活理解語(yǔ)句的能力是人類智能的標(biāo)準(zhǔn)。110.兩個(gè)變量相關(guān),它們的相關(guān)系數(shù)r可能為0。111.空值不同于空字符串或數(shù)值0,通常表示未填寫(xiě)、未知(Unknown)、不可用或?qū)⒃谝院筇砑拥臄?shù)據(jù)。112.開(kāi)啟讀寫(xiě)分離功能后,主實(shí)例和只讀實(shí)例均不允許修改內(nèi)網(wǎng)A、正確參考答案:A113.卷簾快門是多數(shù)CMOS使用的,特征是逐行曝光,每一行的曝光時(shí)間不一致。114.卷積神經(jīng)網(wǎng)絡(luò)是Hopfield神經(jīng)網(wǎng)絡(luò)的延伸與拓展。A、正確116.卷積神經(jīng)網(wǎng)絡(luò)(CNN)適用于圖像識(shí)別和圖像分割任務(wù)。117.卷積神經(jīng)網(wǎng)絡(luò)(CNN)適合處理具有空間關(guān)系的數(shù)據(jù),比如118.卷積神經(jīng)網(wǎng)絡(luò)(CNN)常用于處理序列數(shù)據(jù)。119.卷積神經(jīng)網(wǎng)絡(luò)(CNN)不能應(yīng)用于時(shí)間序列預(yù)測(cè)任務(wù)。A、正確120.靜態(tài)方法可以直接訪問(wèn),不需要使用類名靜態(tài)方法名調(diào)用。121.金具作為輸電線路的重要組成部分,利用深度學(xué)習(xí)模型可對(duì)金具缺陷進(jìn)行目標(biāo)檢測(cè)。122.金角銀邊草肚皮一般代表的是圍棋棋子放置的位置。123.結(jié)構(gòu)型傳感器的原理比物性型傳感器的原理比相對(duì)清晰。124.建立數(shù)據(jù)庫(kù)中的表時(shí),將“年齡”字段值限制在18—25歲之間。這種約束屬于參照完整性約束。125.堅(jiān)持安全性、可用性、互操作性、可追溯性原則,逐步建立并完善人工智能基礎(chǔ)共性、互聯(lián)互通、行業(yè)應(yīng)用、網(wǎng)絡(luò)安全、隱私保護(hù)等技術(shù)標(biāo)準(zhǔn)。126.計(jì)算字段是指將已有的字段通過(guò)使用表達(dá)式而建立起來(lái)的新127.計(jì)算機(jī)可以在視頻畫(huà)面中識(shí)別車輛信息,幫助失主追回被盜的汽車。128.機(jī)械臂關(guān)節(jié)逆解適合用Service通信方式。129.機(jī)器語(yǔ)言的特點(diǎn)是有豐富的修辭手段。130.機(jī)器視覺(jué)是指用計(jì)算機(jī)實(shí)現(xiàn)人的視覺(jué)功能——對(duì)客觀世界的三維場(chǎng)景的感知、識(shí)別和理解。131.回歸問(wèn)題和分類問(wèn)題都有可能發(fā)生過(guò)擬合。132.華為微服務(wù)引擎CSE的功能包括微服務(wù)運(yùn)維生命周期管理。134.滾動(dòng)角、俯仰角和偏航角進(jìn)行的一系列連續(xù)旋轉(zhuǎn)是相對(duì)于世界坐標(biāo)系進(jìn)行的,而不是相對(duì)于動(dòng)坐標(biāo)系進(jìn)行的。135.軌跡規(guī)劃與控制就是按時(shí)間規(guī)劃和控制手部或工具中心走過(guò)參考答案:B關(guān)鍵字參數(shù)必須在最后面。138.根據(jù)激光測(cè)距儀數(shù)據(jù)構(gòu)建柵格

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論