人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第1頁
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第2頁
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第3頁
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第4頁
人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)_第5頁
已閱讀5頁,還剩125頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

人工智能訓(xùn)練師職業(yè)技能競(jìng)賽(省賽)參考試題(附答案)單選題1.自然語言處理的英文簡(jiǎn)寫是()。A、PLNB、NLPC、LPND、PNL參考答案:B2.專用與通用人工智能討論的是智能的()問題。A、分層B、深度C、寬窄D、語言處理參考答案:C3.支持向量機(jī)SVM是一種()算法。A、只有有限個(gè)間斷點(diǎn)的連續(xù)函數(shù)B、大樣本下的統(tǒng)計(jì)機(jī)器學(xué)習(xí)C、大樣本下的實(shí)例機(jī)器學(xué)習(xí)參考答案:A4.在自然語言處理中,transformer模型主要用于解決()問題。A、文本摘要B、機(jī)器翻譯C、情感分析D、以上都是參考答案:D5.在自然語言處理中,n-gram模型主要用于解決()問題。A、文本分類B、語音識(shí)別C、圖像描述生成D、機(jī)器翻譯參考答案:A6.在自然語言處理中,“語義角色標(biāo)注”(SemanticRoleLabeling,SRL)的目的是()。A、確定句子中的謂語和賓語B、根據(jù)上下文理解句子的含義C、根據(jù)謂語動(dòng)詞確定句子的結(jié)構(gòu)D、根據(jù)名詞短語確定句子的主題參考答案:A7.在自然語言處理中,“共引分析”(Co-citationAnalysis)主要用于解決()問題。A、文本分類B、確定文獻(xiàn)間的相似性或關(guān)聯(lián)性C、生成文本摘要D、以上都是參考答案:B8.在自然語言處理任務(wù)中,自適應(yīng)學(xué)習(xí)率優(yōu)化器的一個(gè)例子是()。A、SGDB、MomentumC、AdagradD、BatchNormalization參考答案:C9.在自然語言處理任務(wù)中,()模型最適合實(shí)現(xiàn)情感分析。A、TransformerB、CNNC、RNND、GAN參考答案:A10.在自然語言處理任務(wù)中,()技術(shù)不適用于文本分類。A、RNNB、ERTC、GAND、CNN參考答案:C11.在正則表達(dá)式中,匹配任意一個(gè)字符的符號(hào)是()。A、B、*C、-參考答案:A12.在英文閱讀中遇到生詞時(shí),教師一般要求學(xué)生聯(lián)系上下文猜測(cè)詞義,而不是急于查字典。這體現(xiàn)了知覺的()。A、整體性B、選擇性C、理解性D、恒常性參考答案:C13.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,可能的原因是()。A、學(xué)習(xí)率(learningrate)太低B、正則參數(shù)太高C、陷入局部最小值D、以上都是參考答案:D14.在訓(xùn)練模型之前,需要把先標(biāo)注好的數(shù)據(jù)進(jìn)行()。A、替換B、刪除C、分類D、更新參考答案:C15.在訓(xùn)練大模型時(shí),為了避免過擬合,()技術(shù)可能被使用。A、增加訓(xùn)練輪次B、減少網(wǎng)絡(luò)層數(shù)C、正則化D、降低學(xué)習(xí)率參考答案:C16.在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,()問題容易導(dǎo)致梯度消失或梯度爆炸。A、輸入數(shù)據(jù)的維度過大B、網(wǎng)絡(luò)層數(shù)過多C、時(shí)間序列過長(zhǎng)D、激活函數(shù)選擇不當(dāng)參考答案:D17.在推薦系統(tǒng)中,()是“長(zhǎng)尾效應(yīng)”。A、推薦系統(tǒng)能夠推薦大量冷門但優(yōu)質(zhì)的物品B、推薦系統(tǒng)總是推薦熱門的物品C、推薦系統(tǒng)推薦的物品數(shù)量很少D、推薦系統(tǒng)無法處理大量數(shù)據(jù)參考答案:A18.在推薦系統(tǒng)中,()是“上下文廣告”。A、根據(jù)用戶的當(dāng)前上下文信息展示相關(guān)的廣告B、根據(jù)物品的流行度展示廣告C、根據(jù)用戶的個(gè)人信息展示廣告D、根據(jù)用戶的搜索歷史展示廣告參考答案:A19.在梯度下降中,鞍點(diǎn)通常指的是()。A、損失函數(shù)的局部最小值點(diǎn)B、損失函數(shù)的局部最大值點(diǎn)C、損失函數(shù)的平坦區(qū)域D、以上都是參考答案:C20.在隨機(jī)森林中,為了()要隨機(jī)選擇特征和樣本。A、提高模型的穩(wěn)定性B、增加模型的多樣性C、減少計(jì)算復(fù)雜度D、提高模型的精度參考答案:B21.在數(shù)據(jù)預(yù)處理中,數(shù)據(jù)離散化通常用于()。A、減少計(jì)算量B、處理缺失值C、處理分類變量D、處理異常值參考答案:C22.在生成式人工智能模型中,零樣本學(xué)習(xí)的目的是()。A、在沒有任何樣本的情況下進(jìn)行訓(xùn)練B、僅使用少量樣本進(jìn)行訓(xùn)練C、在沒有見過的樣本上進(jìn)行推理D、使用大量樣本進(jìn)行訓(xùn)練參考答案:C23.在神經(jīng)網(wǎng)絡(luò)中,()是權(quán)重共享。A、不同層之間共享相同的權(quán)重B、不同神經(jīng)元之間共享相同的權(quán)重C、不同樣本之間共享相同的權(quán)重D、不同批次之間共享相同的權(quán)重參考答案:A24.在神經(jīng)網(wǎng)絡(luò)中,()技術(shù)用于解決過擬合。A、DropoutB、正則化C、批規(guī)范化D、以上都是參考答案:B25.在神經(jīng)網(wǎng)絡(luò)中,()操作通常用于減少模型的計(jì)算復(fù)雜度。A、增加層數(shù)B、池化C、增加神經(jīng)元數(shù)量D、使用更復(fù)雜的激活函數(shù)參考答案:B26.在深度學(xué)習(xí)中,卷積層主要用于()。A、特征提取B、序列生成C、語義分析D、決策優(yōu)化參考答案:A27.在深度學(xué)習(xí)中,激活函數(shù)的主要作用是()。A、對(duì)輸入數(shù)據(jù)進(jìn)行線性變換B、對(duì)輸入數(shù)據(jù)進(jìn)行非線性變換C、增加模型的復(fù)雜度D、減少模型的過擬合參考答案:B28.在深度學(xué)習(xí)中,“長(zhǎng)短期記憶”(LSTM)網(wǎng)絡(luò)主要用于處理()類型的數(shù)據(jù)。A、圖像數(shù)據(jù)B、音頻數(shù)據(jù)C、時(shí)序數(shù)據(jù)D、文本數(shù)據(jù)參考答案:C29.在深度學(xué)習(xí)中,“生成對(duì)抗網(wǎng)絡(luò)”(GANs)的訓(xùn)練過程中的()部分負(fù)責(zé)生成逼真的數(shù)據(jù)。A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)參考答案:B30.在深度學(xué)習(xí)中,“生成對(duì)抗網(wǎng)絡(luò)”(GAN)的訓(xùn)練過程中,()部分負(fù)責(zé)生成逼真的數(shù)據(jù)。A、判別器(Discriminator)B、生成器(Generator)C、編碼器(Encoder)D、解碼器(Decoder)參考答案:B31.在深度學(xué)習(xí)中,“遷移學(xué)習(xí)”(TransferLearning)的一個(gè)主要優(yōu)點(diǎn)是()。A、可以減少訓(xùn)練時(shí)間B、可以減少模型的復(fù)雜度C、可以利用預(yù)訓(xùn)練模型來提高性能D、可以減少數(shù)據(jù)需求參考答案:C32.在深度學(xué)習(xí)中,“卷積神經(jīng)網(wǎng)絡(luò)”(CNN)中的池化層(PoolingLayer)的作用是()。A、增強(qiáng)模型的非線性能力B、提取局部特征C、降低特征的空間維度D、增加網(wǎng)絡(luò)的深度參考答案:C33.在深度學(xué)習(xí)中,“卷積”(Convolution)操作主要用于()。A、圖像分類B、文本生成C、語音識(shí)別D、以上都是參考答案:D34.在深度學(xué)習(xí)中,“遞歸神經(jīng)網(wǎng)絡(luò)”(RNN)的一個(gè)主要優(yōu)點(diǎn)是()。A、可以減少過擬合B、可以實(shí)現(xiàn)端到端的學(xué)習(xí)C、可以減少計(jì)算量D、特別適用于處理非結(jié)構(gòu)化數(shù)據(jù)參考答案:D35.在深度學(xué)習(xí)中,()技術(shù)常用于避免梯度消失問題。A、ReLU激活函數(shù)B、批量歸一化C、殘差網(wǎng)絡(luò)D、以上都是參考答案:D36.在深度學(xué)習(xí)模型中,過擬合的一個(gè)常見解決方案是()。A、增加訓(xùn)練數(shù)據(jù)的數(shù)量B、減少模型的深度C、增加模型的寬度D、減少訓(xùn)練迭代次數(shù)參考答案:A37.在人機(jī)交互技術(shù)中,不屬于圖形人機(jī)交互技術(shù)的是()。A、幾何約束B、引力場(chǎng)C、語音識(shí)別D、橡皮筋技術(shù)參考答案:C38.在強(qiáng)化學(xué)習(xí)中,智能體通過()方式與環(huán)境互動(dòng)。A、發(fā)送動(dòng)作并接收狀態(tài)B、接收狀態(tài)并發(fā)送動(dòng)作C、接收狀態(tài)、發(fā)送動(dòng)作并得到獎(jiǎng)勵(lì)或懲罰D、僅接收環(huán)境的狀態(tài)信息參考答案:C39.在強(qiáng)化學(xué)習(xí)中,策略梯度方法主要用于優(yōu)化()。A、價(jià)值函數(shù)B、環(huán)境模型C、策略函數(shù)D、獎(jiǎng)勵(lì)函數(shù)參考答案:C40.在強(qiáng)化學(xué)習(xí)中,Q-learning算法主要用于解決()問題。A、狀態(tài)估計(jì)B、動(dòng)作選擇C、獎(jiǎng)勵(lì)最大化D、策略優(yōu)化參考答案:D41.在內(nèi)存中,每個(gè)基本單位都被賦予一個(gè)唯一的序號(hào),這個(gè)序號(hào)稱之為()。A、字節(jié)B、編號(hào)C、地址D、容量參考答案:C42.在命名實(shí)體識(shí)別任務(wù)中,O標(biāo)簽通常代表()。A、命名實(shí)體的開始B、命名實(shí)體的內(nèi)部C、非命名實(shí)體D、命名實(shí)體的結(jié)束參考答案:C43.在課堂上,教師講課的聲音成為知覺的對(duì)象,而環(huán)境中的其他聲音成為背景音。這體現(xiàn)了知覺的()。A、理解性B、恒常性C、選擇性D、整體性參考答案:C44.在卷積神經(jīng)網(wǎng)絡(luò)(CNN)中,()主要用于提取特征并減少計(jì)算量和參數(shù)量。A、全連接層(FullyConnectedLayer)B、池化層(PoolingLayer)C、批量歸一化層(BatchNormalizationLayer)D、激活層(ActivationLayer)參考答案:B45.在聚類分析中,()指標(biāo)用于評(píng)估聚類效果的好壞。A、準(zhǔn)確率B、召回率C、輪廓系數(shù)D、F1值參考答案:C46.在聚類分析中,()指標(biāo)用于評(píng)估聚類效果。A、準(zhǔn)確率B、召回率C、輪廓系數(shù)D、F1值參考答案:C47.在計(jì)算機(jī)視覺中,光流法通常用于估計(jì)()。A、物體的形狀B、物體的運(yùn)動(dòng)C、物體的顏色D、物體的紋理參考答案:B48.在計(jì)算機(jī)視覺中,()任務(wù)關(guān)注從視頻序列中檢測(cè)和跟蹤物體。A、圖像分類B、目標(biāo)跟蹤C(jī)、人臉識(shí)別D、圖像生成參考答案:B49.在計(jì)算機(jī)視覺任務(wù)中,最常用于特征提取的深度學(xué)習(xí)模型是()。A、RNNB、CNNC、LSTMD、GAN參考答案:B50.在機(jī)器學(xué)習(xí)中,過擬合通常是由()引起的。A、訓(xùn)練數(shù)據(jù)不足B、模型復(fù)雜度過高C、特征選擇不當(dāng)D、使用了不合適的損失函數(shù)參考答案:B51.在機(jī)器學(xué)習(xí)中,超參數(shù)(Hyperparameters)的調(diào)整通常使用()方法。A、交叉驗(yàn)證B、最大似然估計(jì)C、貝葉斯優(yōu)化D、網(wǎng)格搜索(GridSearch)參考答案:D52.在機(jī)器學(xué)習(xí)中,K-折交叉驗(yàn)證主要用于()。A、提高模型的訓(xùn)練速度B、評(píng)估模型的泛化能力C、減少模型的過擬合風(fēng)險(xiǎn)D、增加數(shù)據(jù)集的大小參考答案:B53.在機(jī)器學(xué)習(xí)中,“批量歸一化”(BatchNormalization)的作用是()。A、加速梯度下降收斂B、降低模型的復(fù)雜度C、增加模型的容量D、改善模型的可解釋性參考答案:A54.在機(jī)器學(xué)習(xí)中,“決策樹”(DecisionTree)的一個(gè)限制是()。A、不能處理連續(xù)值B、不能用于多類分類問題C、容易過擬合D、不能處理缺失值參考答案:C55.在機(jī)器學(xué)習(xí)中,“交叉驗(yàn)證”(Cross-validation)的主要目的是()。A、提高模型的訓(xùn)練速度B、評(píng)估模型的泛化能力C、減少模型的過擬合D、選擇最佳的模型參數(shù)參考答案:B56.在機(jī)器學(xué)習(xí)中,“核技巧”(KernelTrick)主要用于解決()問題。A、加快算法的運(yùn)行速度B、使線性算法能夠處理非線性問題C、減少模型的內(nèi)存使用D、簡(jiǎn)化模型的結(jié)構(gòu)參考答案:B57.在機(jī)器學(xué)習(xí)中,()是特征提取。A、將原始數(shù)據(jù)轉(zhuǎn)換為新的特征空間的過程B、從原始數(shù)據(jù)中選擇最重要的特征的過程C、用于評(píng)估模型性能的指標(biāo)D、用于調(diào)整模型參數(shù)的技術(shù)參考答案:A58.在機(jī)器學(xué)習(xí)中,()是超參數(shù)。A、模型中學(xué)習(xí)到的參數(shù)B、用于控制模型學(xué)習(xí)過程的參數(shù)C、輸入數(shù)據(jù)的特征D、模型的輸出參考答案:B59.在機(jī)器學(xué)習(xí)中,()是“偏差-方差權(quán)衡”。A、模型復(fù)雜度和訓(xùn)練時(shí)間之間的關(guān)系B、模型在訓(xùn)練數(shù)據(jù)上的表現(xiàn)和在測(cè)試數(shù)據(jù)上的表現(xiàn)之間的關(guān)系C、模型復(fù)雜度和泛化能力之間的關(guān)系D、模型準(zhǔn)確率和召回率之間的關(guān)系參考答案:C60.在機(jī)器學(xué)習(xí)中,()不屬于監(jiān)督學(xué)習(xí)算法。A、支持向量機(jī)(SVM)B、K-近鄰算法C、主成分分析(PCA)D、決策樹參考答案:C61.在機(jī)器學(xué)習(xí)領(lǐng)域中,交叉驗(yàn)證主要用來()。A、評(píng)估模型在未見過的數(shù)據(jù)上的泛化能力B、調(diào)整模型的學(xué)習(xí)率C、選擇合適的特征子集D、優(yōu)化模型的正則化參數(shù)參考答案:A62.在關(guān)系模型中,用來表示實(shí)體關(guān)系的是()。A、字段B、記錄C、表D、指針參考答案:C63.在對(duì)話系統(tǒng)中,()不是常用的技術(shù)。A、意圖識(shí)別B、槽填充C、情感分析D、語音識(shí)別參考答案:D64.在大語言模型中,Transformer結(jié)構(gòu)的核心組成部分包括()。A、RNN和LSTMB、CNN和PoolingC、自注意力機(jī)制和前饋神經(jīng)網(wǎng)絡(luò)D、SVM和決策樹參考答案:C65.在查詢“設(shè)計(jì)視圖”中()。A、只能添加數(shù)據(jù)庫(kù)表B、可以添加數(shù)據(jù)庫(kù)表,也可以添加查詢C、只能添加查詢D、以上都不是參考答案:B66.在Spak的軟件棧中,用于交互式查詢的是()。A、SparkSQLB、MllibC、GraphXD、SparkStreaming參考答案:A67.在select語句的where子句中,使用正則表達(dá)式過濾數(shù)據(jù)的關(guān)鍵字是()。A、likeB、againstC、matchD、regexp參考答案:D68.在PyTorch中,如果要自定義一個(gè)神經(jīng)網(wǎng)絡(luò)層,需要繼承()類。A、torch.nn.ModuleB、torch.TensorC、torch.optim.OptimizerD、torch.autograFunction參考答案:A69.在Python中,適合實(shí)現(xiàn)多路分支的結(jié)構(gòu)是()。A、tryB、if-elif-elseC、ifD、if-else參考答案:B70.在K近鄰(KNN)算法中,K通常代表()。A、模型訓(xùn)練時(shí)的迭代次數(shù)B、樣本數(shù)據(jù)集中的類別數(shù)量C、用來決定新樣本所屬類別的鄰居數(shù)量D、特征空間的維度數(shù)參考答案:C71.在io模塊中,用()函數(shù)讀取圖片。A、write()B、imshow()C、show()D、imread()參考答案:D72.在CNN的反向傳播過程中,()是特有的操作。A、卷積操作B、池化操作C、權(quán)值共享D、以上都是參考答案:C73.在“查詢參數(shù)”窗口定義查詢參數(shù)時(shí),除定義查詢參數(shù)的類型外,還要定義查詢參數(shù)的()。A、參數(shù)名稱B、參數(shù)值C、參數(shù)值域參考答案:A74.與輪式里程計(jì)相比,激光里程計(jì)的主要優(yōu)勢(shì)在于()。A、計(jì)算效率高B、觀測(cè)范圍廣C、不受輪子打滑影響D、測(cè)量精度高參考答案:C75.用于比較觀察結(jié)果和期望結(jié)果的專家系統(tǒng)類型是()。A、控制B、監(jiān)督C、預(yù)測(cè)D、規(guī)劃參考答案:B76.用計(jì)算機(jī)管理科技情報(bào)資料,是計(jì)算機(jī)在()方面的應(yīng)用。A、科學(xué)計(jì)算B、數(shù)據(jù)處理C、實(shí)時(shí)控制D、人工智能參考答案:B77.隱馬爾可夫模型是一種著名的()模型。A、無向圖B、有向圖C、樹形圖D、環(huán)形圖參考答案:B78.遺傳算法中,從當(dāng)前群體中按照一定概率選出優(yōu)良個(gè)體,使它們有機(jī)會(huì)作為父代繁殖下一代子孫的操作是()。A、遺傳B、選擇C、優(yōu)選D、繼承參考答案:B79.一幅數(shù)字圖像是()。A、一個(gè)觀測(cè)系統(tǒng)B、一個(gè)由許多像素排列而成的實(shí)體C、一個(gè)2-D數(shù)組中的元素D、一個(gè)3-D空間的場(chǎng)景參考答案:B80.一幅灰度級(jí)均勻分布的圖像,其灰度范圍在[0,255],則該圖像像素的存儲(chǔ)位數(shù)為()。A、2B、4C、6D、8參考答案:D81.要從學(xué)生關(guān)系中查詢20歲的女生進(jìn)行的查詢操作屬于()。A、選擇B、投影C、聯(lián)結(jié)D、自然聯(lián)結(jié)參考答案:A82.現(xiàn)欲分析性別、年齡、身高、飲食習(xí)慣對(duì)體重的影響,如果這個(gè)體重是屬于實(shí)際的重量,是連續(xù)性的數(shù)據(jù)變量,這時(shí)應(yīng)采用();如果將體重分類,分成高、中、低三種體重類型作為因變量,則采用()。A、線性回歸;邏輯回歸B、邏輯回歸;線性回歸C、線性回歸;線性回歸D、邏輯回歸;邏輯回歸參考答案:A83.下面顯示的是查詢?cè)O(shè)計(jì)視圖的設(shè)計(jì)網(wǎng)格部分,從下圖所示的內(nèi)容中,可以判斷出要?jiǎng)?chuàng)建的查詢是()。A、刪除查詢B、追加查詢C、生成表查詢D、更新查詢參考答案:B84.文本摘要任務(wù)的主要目標(biāo)是()。A、識(shí)別文本中的關(guān)鍵詞B、生成文本的簡(jiǎn)短描述C、對(duì)文本進(jìn)行情感分析D、對(duì)文本進(jìn)行分類參考答案:B85.為制作“磁性男聲”音色,請(qǐng)專業(yè)人士錄制了一批數(shù)據(jù),()數(shù)據(jù)可以被標(biāo)記為“合格”。A、語速均勻,發(fā)音準(zhǔn)確的片段B、兒化音時(shí)有時(shí)無的片段C、語速比平均水平快很多的片段D、情緒激昂的片段參考答案:A86.為數(shù)據(jù)表創(chuàng)建索引的目的是()。A、提高查詢的檢索性能B、歸類C、創(chuàng)建唯一索引D、創(chuàng)建主鍵參考答案:A87.為解決單個(gè)輸出的感知機(jī)無法解決的異或問題,需要用有至少()個(gè)輸出的感知機(jī)。A、5B、4C、3D、2參考答案:D88.圖像分割中常用的基于像素的方法是()。A、基于閾值的分割B、基于邊緣的分割C、基于區(qū)域的分割D、基于特征的分割參考答案:A89.通過SSML標(biāo)記()文本內(nèi)容,可以控制()語音生成的許多方面。A、標(biāo)準(zhǔn),簡(jiǎn)單B、標(biāo)準(zhǔn),復(fù)雜C、格式化,合成D、通用性,合成參考答案:C90.梯度下降算法的正確步驟是()。①計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差②迭代跟新,直到找到最佳權(quán)重③把輸入傳入網(wǎng)絡(luò),得到輸出值④初始化隨機(jī)權(quán)重和偏差⑤對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,改變相應(yīng)的(權(quán)重)值以減小誤差A(yù)、①②③B、⑤④③②①C、③②④D、④③①⑤②參考答案:D91.索價(jià)表格在30萬-70萬元之間的產(chǎn)品,可以設(shè)置條件為()。A、">30Not<60"B、">30Or<60"C、">30And<60"D">30Like<60"參考答案:C92.隨著閉源軟件在數(shù)據(jù)分析領(lǐng)域的地盤不斷縮小,老牌IT廠商正在改變商業(yè)模式,向著()靠攏。A、閉源B、開源C、獨(dú)立D、封閉參考答案:B93.算法中屬于圖像平滑處理的是()。A、Hough變換法B、狀態(tài)法C、高通濾波D、中值濾波參考答案:D94.數(shù)字音頻采樣和量化過程所用的主要硬件是()。A、數(shù)字編碼器B、數(shù)字解碼器C、模擬到數(shù)字的轉(zhuǎn)換器(A/D轉(zhuǎn)換器)D、數(shù)字到模擬的轉(zhuǎn)換器(D/A轉(zhuǎn)換器)參考答案:C95.數(shù)據(jù)預(yù)處理中,()步驟不是針對(duì)缺失值處理的。A、刪除包含缺失值的行或列B、使用均值或中位數(shù)填充缺失值C、對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化D、使用插值法填充缺失值參考答案:C96.數(shù)據(jù)庫(kù)(DB)、數(shù)據(jù)庫(kù)系統(tǒng)(DBS)和數(shù)據(jù)庫(kù)管理系統(tǒng)(DBMS)之間的關(guān)系是()。A、DBS包括DB和DBMSB、DBMS包括DB和DBSC、DB包括DBS和DBMSD、BS就是DB,也就是DBMS參考答案:A97.數(shù)據(jù)標(biāo)注的最終目的是()。A、提供訓(xùn)練數(shù)據(jù)B、提高數(shù)據(jù)質(zhì)量C、減少人工干預(yù)D、以上都是參考答案:D98.屬于物聯(lián)網(wǎng)感知層關(guān)鍵技術(shù)的是()。A、通信技術(shù)B、數(shù)據(jù)處理技術(shù)C、數(shù)據(jù)存儲(chǔ)技術(shù)D、感知與標(biāo)識(shí)技術(shù)參考答案:D99.屬于點(diǎn)處理的是()。A、灰度線性變換B、二值化C、傅立葉變換D、中值濾波參考答案:B100.屬性xlabel用于設(shè)置可視化圖表的()部分。A、橫坐標(biāo)刻度B、橫坐標(biāo)名稱C、縱坐標(biāo)刻度D、縱坐標(biāo)名稱參考答案:B101.使用各類型標(biāo)注工具后,標(biāo)注完成的輸出文件的格式一般不包括()。A、txtB、xmlC、pngD、json參考答案:C102.使用白盒測(cè)試方法時(shí),確定測(cè)試數(shù)據(jù)應(yīng)根據(jù)()和指定的覆蓋標(biāo)準(zhǔn)。A、程序的內(nèi)部結(jié)構(gòu)B、程序的復(fù)雜性C、使用說明書D、程序的功能參考答案:A103.神經(jīng)網(wǎng)絡(luò)求解問題的過程中()陷入局部極值點(diǎn)。A、不可能B、可能C、必然參考答案:B104.深度學(xué)習(xí)中,模型集成(ModelEnsemble)的主要目的是()。A、提高模型的準(zhǔn)確率B、減少模型的參數(shù)數(shù)量C、加速模型訓(xùn)練D、防止過擬合參考答案:A105.深度學(xué)習(xí)中,Dropout層的作用是()。A、防止過擬合B、增加模型復(fù)雜度C、加速模型收斂D、提高準(zhǔn)確率參考答案:A106.深度學(xué)習(xí)中,()網(wǎng)絡(luò)結(jié)構(gòu)通常用于處理序列數(shù)據(jù)并捕捉長(zhǎng)期依賴關(guān)系。A、CNNB、RNNC、LSTMD、Autoencoder參考答案:C107.深度學(xué)習(xí)中,()是梯度爆炸問題。A、模型梯度在訓(xùn)練過程中逐漸增大B、模型梯度在訓(xùn)練過程中逐漸減小C、模型梯度在訓(xùn)練過程中保持不變D、模型梯度與損失函數(shù)無關(guān)參考答案:A108.深度學(xué)習(xí)與傳統(tǒng)機(jī)器學(xué)習(xí)的主要區(qū)別是()。A、深度學(xué)習(xí)使用更復(fù)雜的模型B、深度學(xué)習(xí)需要更多的計(jì)算資源C、深度學(xué)習(xí)通?;谏窠?jīng)網(wǎng)絡(luò)D、深度學(xué)習(xí)僅適用于大規(guī)模數(shù)據(jù)集參考答案:C109.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種()形式。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、以上都是參考答案:D110.深度學(xué)習(xí)模型訓(xùn)練過程中,驗(yàn)證集的主要作用是()。A、選擇超參數(shù)B、評(píng)估模型性能C、作為額外的訓(xùn)練數(shù)據(jù)D、進(jìn)行在線學(xué)習(xí)參考答案:A111.人工智能最早的起源可以追溯到()。A、20世紀(jì)50年代B、19世紀(jì)90年代C、21世紀(jì)10年代D、18世紀(jì)70年代參考答案:A112.人工智能中通常把()作為衡量機(jī)器智能的準(zhǔn)則。A、圖靈機(jī)B、圖靈測(cè)試C、中文屋思想實(shí)驗(yàn)D、人類智能參考答案:B113.人工智能中的策略網(wǎng)絡(luò)主要用于解決()問題。A、圖像分類B、強(qiáng)化學(xué)習(xí)C、文本生成D、數(shù)據(jù)清洗參考答案:B114.人工智能是一門利用計(jì)算機(jī)模擬人類智能行為科學(xué)的統(tǒng)稱,它涵蓋了訓(xùn)練計(jì)算機(jī)使其能夠完成()等人類行為的范疇。A、自主學(xué)習(xí)、判斷、執(zhí)行B、決策、判斷、執(zhí)行C、自主學(xué)習(xí)、決策、執(zhí)行D、自主學(xué)習(xí)、判斷、決策參考答案:D115.人工智能的本質(zhì)是()。A、取代人類智能B、電腦萬能C、人類智慧的倒退D、對(duì)人類智能的模擬參考答案:D116.人工智能“兩庫(kù)一平臺(tái)”邊緣側(cè)采集數(shù)據(jù)和業(yè)務(wù)系統(tǒng)數(shù)據(jù)經(jīng)過預(yù)處理和標(biāo)注后,形成可用于訓(xùn)練的樣本數(shù)據(jù),歸集至()。A、省級(jí)樣本庫(kù)B、公司樣本庫(kù)C、共享樣本庫(kù)D、云樣本庫(kù)參考答案:A117.人工神經(jīng)網(wǎng)絡(luò)在20世紀(jì)()年代興起,一直以來都是人工智能領(lǐng)域的研究熱點(diǎn)。A、50B、60C、70D、80參考答案:D118.樸素貝葉斯方法的優(yōu)點(diǎn)是()。①樸素貝葉斯模型具有穩(wěn)定的分類效率②在小規(guī)模數(shù)據(jù)上表現(xiàn)良好,可以處理多分類任務(wù),并且適合增量訓(xùn)練,尤其是當(dāng)數(shù)據(jù)量超過內(nèi)存時(shí),可以分批增量訓(xùn)練③對(duì)丟失數(shù)據(jù)不是很敏感,算法比較簡(jiǎn)單,經(jīng)常用于文本分類A、①②B、②③C、①③D、①②③參考答案:D119.目前常見的標(biāo)注文檔存儲(chǔ)格式不包括()。A、EXEB、XMLC、TXTD、JSON參考答案:A120.某種計(jì)算機(jī)的內(nèi)存容量是640K,這里的640K容量是指()個(gè)字節(jié)。A、640B、640*1000C、640*1024D、640*1024*1024參考答案:C121.每個(gè)查詢都有3種視圖的是()。A、設(shè)計(jì)視圖B、模版視圖C、數(shù)據(jù)表視圖D、SQL視圖參考答案:B122.沒有發(fā)生沖突的是()。A、一個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功B、多個(gè)已知事實(shí)與知識(shí)庫(kù)中的一個(gè)知識(shí)匹配成功C、多個(gè)已知事實(shí)可以與知識(shí)庫(kù)中多個(gè)知識(shí)匹配成功D、已知事實(shí)不能與知識(shí)庫(kù)中的任何知識(shí)匹配成功參考答案:D123.盲目搜索策略不包括()。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、全局擇優(yōu)搜索參考答案:D124.量子計(jì)算的理論模型是()。A、希爾伯特機(jī)B、哥德爾機(jī)C、通用圖靈機(jī)D、通用羅素機(jī)參考答案:C125.兩種以上(不含兩種)的分類問題被稱為()。A、多分類B、歸一化C、分類器D、二分類參考答案:A126.客服中心是運(yùn)營(yíng)商和客戶接觸較為頻繁的通道,可以利用()在后端給客服中心建立龐大的知識(shí)庫(kù),供接線員們使用,幫他們快速精準(zhǔn)地找到答案。A、大數(shù)據(jù)技術(shù)B、客戶畫像C、客戶狀態(tài)D、客戶心情參考答案:A127.卷積神經(jīng)網(wǎng)絡(luò)的縮寫是()。A、CNNB、RNNC、GNND、GAN參考答案:A128.卷積神經(jīng)網(wǎng)絡(luò)(CNN)在計(jì)算機(jī)視覺中主要用于()。A、自然語言處理B、圖像識(shí)別C、語音識(shí)別D、情感分析參考答案:B129.晶體管有3個(gè)工作區(qū),在數(shù)字電路中,它工作在()區(qū)。A、飽和B、截止C、放大D、飽和或截止參考答案:D130.今年,大數(shù)據(jù)分析將出現(xiàn)革命性的新方法,從前的很多算法和基礎(chǔ)理論可能會(huì)產(chǎn)生理論級(jí)別的突破,而()技術(shù)將繼續(xù)成為大數(shù)據(jù)智能分析的核心技術(shù)。A、機(jī)器學(xué)習(xí)B、智能物流C、腦科學(xué)D、智能終端參考答案:A131.假設(shè)某數(shù)據(jù)庫(kù)表中有一個(gè)工作時(shí)間字段,查找20天之內(nèi)參加工作的記錄的準(zhǔn)則是()。A、BetweenDate()OrDate()-20B、<Date()And>Date()-20C、BetweenDate()AndDate()-20D、<Date()-20參考答案:C132.假設(shè)某數(shù)據(jù)庫(kù)表中有一個(gè)“學(xué)生編號(hào)”字段,查找編號(hào)第3、4個(gè)字符為“03”的記錄的準(zhǔn)則是()。A、Mid([學(xué)生編號(hào)],3,4)="03"B、Mid([學(xué)生編號(hào)],3,2)="03C、Mid("學(xué)生編號(hào)",3,4)="03"D、Mid("學(xué)生編號(hào)",3,2)="03"參考答案:B133.機(jī)器學(xué)習(xí)的主要研究領(lǐng)域不包括()。A、語音識(shí)別B、數(shù)據(jù)挖掘C、云計(jì)算D、軟件工程參考答案:D134.機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于()。A、想B、找C、判斷D、理解參考答案:B135.機(jī)器學(xué)習(xí)的發(fā)展分()階段。A、一個(gè)B、兩個(gè)C、三個(gè)D、四個(gè)參考答案:D136.合法的表達(dá)式是()。A、教師編號(hào)between100000And200000B、[性別]="男"or[性別]="女"C、[基本工資]>=1000[基本工資]<=10000D、[性別]Like"男"=[性別]="女"參考答案:B137.歸一化的種類有()。①線性歸一化②標(biāo)準(zhǔn)差歸一化③非線性歸一化A、①②③B、②③C、①②D、①③參考答案:A138.關(guān)于支持向量回歸,說法錯(cuò)誤的是()。A、支持向量回歸是將支持向量的方法應(yīng)用到回歸問題中B、支持向量回歸同樣可以應(yīng)用核函數(shù)求解線性不可分的問題C、同分類算法不同的是,支持向量回歸要最小化一個(gè)凹函數(shù)D、支持向量回歸的解是稀疏的參考答案:C139.關(guān)于語音識(shí)別流程,說法不正確的是()。A、語音識(shí)別通常由語音信號(hào)的采集、端點(diǎn)檢測(cè)、特征提取等步驟組成B、語音信號(hào)的預(yù)處理首先要做的是語音信號(hào)的數(shù)字化C、特征提取是分析處理語音信號(hào)的特征參數(shù),以獲得能夠表征語音信號(hào)特征的數(shù)據(jù)D、特定人語音識(shí)別系統(tǒng)一般側(cè)重提取反映語義的特征參數(shù),盡量去除說話人的個(gè)人信息參考答案:D140.關(guān)于刪除查詢,敘述正確的是()。A、每次操作只能刪除一條記錄B、每次只能刪除單個(gè)表中的記錄C、刪除過的記錄只能用"撤消"命令恢復(fù)D、每次刪除整個(gè)記錄,并非指定字段中的記錄參考答案:D141.關(guān)于人工智能概念,說法錯(cuò)誤的是()。A、人工智能英文翻譯是ArtificialintelligenceB、人工智能使計(jì)算機(jī)能實(shí)現(xiàn)更高層次應(yīng)用C、人工智能就是機(jī)器學(xué)習(xí)D、人工智能是對(duì)人的意識(shí)、思維過程進(jìn)行模擬參考答案:C142.關(guān)于人工智能(AI)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)三者的關(guān)系,敘述正確的是()。A、機(jī)器學(xué)習(xí)專門研究計(jì)算機(jī)怎樣模擬人類的學(xué)習(xí)行為,以獲取新的知識(shí)和技能,重新組織已有的知識(shí)結(jié)構(gòu)以完善自身的性能,但是機(jī)器學(xué)習(xí)能力并非AI系統(tǒng)所必須的B、人工智能研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用,屬于一門獨(dú)立的技術(shù)學(xué)科C、深度學(xué)習(xí)方法研究人工神經(jīng)網(wǎng)絡(luò)的單層感知器學(xué)習(xí)結(jié)構(gòu)D、人工智能是一門研究、開發(fā)用于模擬、延伸和擴(kuò)展人類智能的理論、方法及應(yīng)用的新的交叉學(xué)科,機(jī)器學(xué)習(xí)是人工智能的核心研究領(lǐng)域之一,深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的新領(lǐng)域,研究多隱層多感知器、模擬人腦進(jìn)行分析學(xué)習(xí)的人工神經(jīng)網(wǎng)絡(luò)參考答案:D143.關(guān)于區(qū)域形狀的特征,描述不正確的是()。A、矩形度是物體面積與其最小外接矩形面積之比B、邊界的形狀數(shù)具有平移旋轉(zhuǎn)和比例縮放不變性C、當(dāng)區(qū)域?yàn)閳A時(shí),圓形度達(dá)到最大值1D、歸一化的中心矩具有平移旋轉(zhuǎn)比例縮放不變性參考答案:B144.關(guān)于模型評(píng)估,說法正確的是()。A、訓(xùn)練集上的準(zhǔn)確率越高,模型性能越好B、測(cè)試集上的準(zhǔn)確率越高,模型性能越好C、驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好D、訓(xùn)練集、測(cè)試集和驗(yàn)證集上的準(zhǔn)確率越高,模型性能越好參考答案:B145.關(guān)于機(jī)器學(xué)習(xí)方法,說法正確的是()。A、解釋學(xué)習(xí)需要環(huán)境提供一組示例,而示例學(xué)習(xí)只要環(huán)境提供一個(gè)示例B、機(jī)械式學(xué)習(xí)有推理能力C、符號(hào)學(xué)習(xí)對(duì)模擬人類較低級(jí)的神經(jīng)活動(dòng)是比較有效的D、觀察與發(fā)現(xiàn)學(xué)習(xí)是基于歸納推理的參考答案:D146.關(guān)于過擬合現(xiàn)象,說法正確的是()。A、訓(xùn)練誤差小,測(cè)試誤差卻大B、訓(xùn)練誤差小,測(cè)試誤差也小C、模型的泛化能力高D、以上都不正確參考答案:A147.關(guān)于窗體的作用,敘述錯(cuò)誤的是()。A、可以接收用戶輸入的數(shù)據(jù)或命令B、可以編輯,顯示數(shù)據(jù)庫(kù)中的數(shù)據(jù)C、可以構(gòu)造方便美觀的輸入/輸出界面D、可以直接儲(chǔ)存數(shù)據(jù)參考答案:D148.關(guān)于查詢的設(shè)計(jì)視圖,說法不正確的是()。A、可以進(jìn)行數(shù)據(jù)記錄的添加B、可以進(jìn)行查詢條件的設(shè)定C、可以進(jìn)行查詢字段是否顯示的設(shè)定D、可以進(jìn)行查詢表的設(shè)定參考答案:A149.關(guān)于Python語言的特點(diǎn),說法正確的是()。A、Python語言不支持面向?qū)ο驜、Python語言是解釋型語言C、Python語言是編譯型語言D、Python語言是非跨平臺(tái)語言參考答案:B150.關(guān)于K-近鄰算法,()說法是正確的。A、K值越大,模型越簡(jiǎn)單B、K值越小,模型越復(fù)雜C、K值的選擇對(duì)結(jié)果沒有影響D、K值必須是偶數(shù)參考答案:B151.關(guān)于Attention-basedModel,說法正確的是()。A、相似度度量模型B、是一種新的深度學(xué)習(xí)網(wǎng)絡(luò)C、是一種輸入對(duì)輸出的比例模型D、以上都不是參考答案:A152.防止欠擬合的方法是()。A、調(diào)整超參數(shù)B、早停止C、交叉驗(yàn)證D、正則化參考答案:A153.對(duì)于圖像數(shù)據(jù),()不是常見的預(yù)處理步驟。A、灰度化B、歸一化C、旋轉(zhuǎn)D、文本分詞參考答案:D154.大模型訓(xùn)練時(shí),通常通過()監(jiān)測(cè)模型的訓(xùn)練進(jìn)度和性能。A、精度與召回率B、損失函數(shù)曲線C、驗(yàn)證集上的準(zhǔn)確率D、以上都是參考答案:D155.創(chuàng)建視圖的命令是()。A、lterviewB、altertableC、reatetableD、createview參考答案:D156.窗口事件是指操作窗口時(shí)引發(fā)的事件,下列不屬于窗口事件的是()。A、打開B、加載C、關(guān)閉D、取消參考答案:D157.傳感器的輸出信號(hào)達(dá)到穩(wěn)定時(shí),輸出信號(hào)變化與輸入信號(hào)變化的比值代表傳感器的()參數(shù)。A、抗干擾能力B、精度C、線性度D、靈敏度參考答案:D158.處理不平衡數(shù)據(jù)集時(shí),通常不推薦()方法。A、過采樣少數(shù)類B、欠采樣多數(shù)類C、生成合成樣本D、忽略少數(shù)類參考答案:D159.不屬于色彩三原色的是()。A、青B、紫C、橙D、黃參考答案:C160.不屬于弱人工智能應(yīng)用的是()。A、語音識(shí)別B、圖像識(shí)別C、文本審核D、遷移學(xué)習(xí)參考答案:D161.不屬于人工智能的學(xué)派是()。A、符號(hào)主義B、機(jī)會(huì)主義C、行為主義D、連接主義參考答案:B162.不屬于聚類算法的是()。A、DIANA算法B、AGNES算法C、K均值算法D、樸素貝葉斯算法參考答案:D163.不屬于TensorFlow20特點(diǎn)的是()。A、多核CPU加速B、分布式C、多語言D、多平臺(tái)參考答案:A164.不是kafka適合的應(yīng)用場(chǎng)景是()。A、日志收集B、消息系統(tǒng)C、業(yè)務(wù)系統(tǒng)D、流式處理參考答案:C165.不是Flume特點(diǎn)的是()。A、可靠性B、集中式架構(gòu)C、可擴(kuò)展性D、可管理性參考答案:D166.表格式窗體同一時(shí)刻能顯示()。A、1條記錄B、2條記錄C、3條記錄D、多條記錄參考答案:D167.標(biāo)注出一句話中的動(dòng)詞屬于()。A、分詞標(biāo)注B、意圖標(biāo)注C、詞性標(biāo)注D、實(shí)體標(biāo)注參考答案:C168.阿爾法狗系列機(jī)器人曾與()出戰(zhàn)過圍棋比賽。A、李世石B、柯潔C、樊麾D、以上都是參考答案:D169.ROM中的信息是()。A、生產(chǎn)廠家預(yù)先寫入的B、計(jì)算機(jī)工作時(shí)隨機(jī)寫入的C、防止計(jì)算機(jī)病毒侵入所使用的D、專門用于計(jì)算機(jī)開機(jī)時(shí)自檢的參考答案:A170.ResNet-50有()個(gè)卷積層。A、48B、49C、50D、51參考答案:B171.RDD是由多個(gè)()組成。A、partitionB、computerC、ActionD、Transformation參考答案:A172.Rasa的組成中包括()。①Rasa-X②Rasa-NLU③Rasa-NLP④Rasa-CoreA、①②③B、①②④C、①③④D、①②③④參考答案:B173.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)經(jīng)常用來減少泛化誤差的方法,以下說法正確的是()。A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇參考答案:A174.Keras提供了一種簡(jiǎn)潔的方法來創(chuàng)建基于TensorFlow或Theano的深度學(xué)習(xí)模型,并運(yùn)用了各種優(yōu)化技術(shù)使神經(jīng)網(wǎng)絡(luò)API調(diào)用變得輕松高效。下列功能屬于Keras特點(diǎn)的是()。A、模塊化B、用戶界面不友好C、基于JavaD、t通用性參考答案:A175.DataFrame.dropna函數(shù)的thresh參數(shù)值為6時(shí)表示()。A、有效數(shù)據(jù)小于6的行B、有效數(shù)據(jù)大于6的行C、有效數(shù)據(jù)等于6的行D、有效數(shù)據(jù)不等于6的行參考答案:A176.COCO數(shù)據(jù)集是由()出資建設(shè)的。A、百度B、微軟C、谷歌D、阿里巴巴參考答案:B177.CNN中卷積層的主要特性是()。A、局部感知B、權(quán)值共享C、感受野D、以上都是參考答案:D178.Access自動(dòng)創(chuàng)建窗體的方式有()種。A、2B、3C、4D、6參考答案:B179.“小男孩2歲了,第1次和奶奶一起旅行。”這句話經(jīng)過文本正則歸整后的結(jié)果是()。A、小男孩兩歲了,第一次和奶奶一起旅行B、小男孩二歲了,第一次和奶奶一起旅行C、小男孩2歲了,第1次和奶奶1起旅行D、小男孩兩歲了,第1次和奶奶一起旅行參考答案:A180.“機(jī)器人”這一詞最早出現(xiàn)在()作家的小說中。A、德國(guó)B、美國(guó)C、瑞士D、捷克參考答案:D181.()用于聲明一個(gè)張量的數(shù)據(jù)格式,告訴系統(tǒng)這里會(huì)有一個(gè)這種格式的張量,但是還沒有給定具體數(shù)值,具體的數(shù)值要在正式運(yùn)行的時(shí)候填充。A、縮進(jìn)符B、占位符C、NAND、字符串參考答案:B182.()因素會(huì)影響合成語音的質(zhì)量。A、漢字的復(fù)雜程度B、拼音借用英文字母C、漢字筆畫和圖畫混淆D、語音數(shù)據(jù)的標(biāo)注質(zhì)量參考答案:D183.()是圖形化交互,()是語音交互,()是對(duì)話式交互。①CUI②VUI③GUIA、③②①B、①②③C、①③②D、②③①參考答案:A184.()是損失函數(shù)(LossFunction)在深度學(xué)習(xí)中的作用。A、測(cè)量模型的準(zhǔn)確性B、優(yōu)化模型參數(shù)C、評(píng)估模型輸出與實(shí)際值之間的差異D、提高模型的泛化能力參考答案:C185.()是深度學(xué)習(xí)在自然語言處理領(lǐng)域的一個(gè)重要應(yīng)用。A、文本分類B、邏輯編程C、專家系統(tǒng)D、定理證明參考答案:A186.()是人以自然語言同計(jì)算機(jī)進(jìn)行交互的綜合性技術(shù),結(jié)合了語言學(xué)、心理學(xué)、工程計(jì)算機(jī)技術(shù)等領(lǐng)域的知識(shí)。A、語音交互B、情感交互C、體感交互D、腦機(jī)交互參考答案:A187.()是Hinton的DarkKnowledge。A、生成對(duì)抗網(wǎng)絡(luò)B、基于注意力的循環(huán)神經(jīng)網(wǎng)絡(luò)C、模型壓縮知識(shí)蒸餾D、元學(xué)習(xí)框架參考答案:C188.()可以用于加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程。A、增加訓(xùn)練樣本B、使用更復(fù)雜的模型C、梯度裁剪D、使用GPU加速參考答案:D189.()可以包含另一個(gè)選擇或操作查詢中SQLSELECT語句,可以在查詢?cè)O(shè)計(jì)網(wǎng)格“字段”行輸入這些語句來定義新字段,或在“準(zhǔn)則”行來定義字段的準(zhǔn)則。A、聯(lián)合查詢B、傳遞查詢C、數(shù)據(jù)定義查詢D、子查詢參考答案:D190.()技術(shù)不是用于增強(qiáng)現(xiàn)實(shí)(AR)的關(guān)鍵組成部分。A、深度學(xué)習(xí)B、激光雷達(dá)C、頭戴式顯示設(shè)備D、傳感器參考答案:A191.()功能不包含在環(huán)形麥克風(fēng)陣列技術(shù)中。A、語音降噪B、回聲消除C、聲源定向D、語音合成參考答案:D192.()的操作不能提升項(xiàng)目質(zhì)量。A、頻繁押后不會(huì)做的題目B、直接提交預(yù)標(biāo)注結(jié)果C、及時(shí)查看標(biāo)注錯(cuò)題D、人效較高同學(xué)分享標(biāo)注技巧參考答案:B193.()不屬于遷移學(xué)習(xí)的基本問題。A、何時(shí)遷移B、何處遷移C、如何遷移D、遷移多少參考答案:D194.()不是圖像識(shí)別中常用的深度學(xué)習(xí)模型。A、CNN(卷積神經(jīng)網(wǎng)絡(luò))B、RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))C、AlexNetD、ResNet參考答案:B195.()不是數(shù)據(jù)采集和標(biāo)注的關(guān)鍵環(huán)節(jié)。A、數(shù)據(jù)采集B、數(shù)據(jù)預(yù)處理C、數(shù)據(jù)標(biāo)注D、數(shù)據(jù)清洗參考答案:D196.()不是深度學(xué)習(xí)的基本組成。A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、自編碼器D、主成分分析參考答案:D197.()不是決策樹常用的剪枝方法。A、預(yù)剪枝B、后剪枝C、隨機(jī)剪枝D、代價(jià)復(fù)雜度剪枝參考答案:C198.()不是聚類分析的常用算法。A、K-meansB、決策樹C、DBSCAND、層次聚類參考答案:B199.()不是XGBoost相比于GBDT的改進(jìn)之處。A、使用了二階導(dǎo)數(shù)信息B、支持列子采樣C、使用了L1和L2正則化D、只能用于二分類問題參考答案:D200.()包含人臉檢測(cè)與屬性分析、人臉對(duì)比、人臉?biāo)阉鞯取、人臉識(shí)別B、數(shù)據(jù)挖掘C、機(jī)器學(xué)習(xí)D、深度學(xué)習(xí)參考答案:A多選題1.最基礎(chǔ)的數(shù)據(jù)標(biāo)注團(tuán)隊(duì)至少有()等崗位角色。A、計(jì)算機(jī)維護(hù)人員B、數(shù)據(jù)標(biāo)注員C、質(zhì)檢員D、項(xiàng)目負(fù)責(zé)人參考答案:BCD2.智能的特點(diǎn)是()。A、能對(duì)環(huán)境進(jìn)行靈活的應(yīng)對(duì)B、能夠不斷創(chuàng)新C、具有十分牢固的記憶力D、經(jīng)濟(jì)高效參考答案:AC3.智能包含的能力有()。A、感知能力B、記憶和思維能力C、學(xué)習(xí)和自適應(yīng)能力D、行為能力參考答案:ABCD4.智慧教育的支撐技術(shù)包括()。A、物聯(lián)網(wǎng)B、大數(shù)據(jù)C、云計(jì)算D、泛在網(wǎng)絡(luò)參考答案:ABCD5.在自然語言處理中,()技術(shù)可以用于提高機(jī)器翻譯的質(zhì)量。A、引入注意力機(jī)制B、數(shù)據(jù)增強(qiáng)C、使用預(yù)訓(xùn)練模型D、序列到序列模型參考答案:ABCD6.在自然語言處理任務(wù)中,()技術(shù)適用于提升自動(dòng)文本摘要生成、情感分析的性能和準(zhǔn)確性。A、引入預(yù)訓(xùn)練模型B、序列到序列模型C、注意力機(jī)制D、數(shù)據(jù)增強(qiáng)參考答案:ABCD7.在自然語言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成和機(jī)器翻譯的質(zhì)量。A、引入預(yù)訓(xùn)練模型B、注意力機(jī)制C、序列到序列模型D、數(shù)據(jù)增強(qiáng)參考答案:ABCD8.在自然語言處理任務(wù)中,()技術(shù)適用于提升文本摘要生成、情感分析和機(jī)器翻譯的性能。A、序列到序列模型B、引入預(yù)訓(xùn)練模型C、注意力機(jī)制D、序列標(biāo)注參考答案:ABC9.在自然語言處理任務(wù)中,()技術(shù)可以用于提升自動(dòng)對(duì)話系統(tǒng)和文本摘要生成的自然性和流暢性。A、序列到序列模型B、注意力機(jī)制C、引入預(yù)訓(xùn)練模型D、數(shù)據(jù)增強(qiáng)參考答案:ABCD10.在自然語言處理任務(wù)中,()技術(shù)可以用于提升文本分類、實(shí)體識(shí)別和情感分析的準(zhǔn)確性和效率。A、引入預(yù)訓(xùn)練模型B、序列標(biāo)注C、注意力機(jī)制D、GAN參考答案:ABC11.在神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中,()方法可以用于防止過擬合。A、DropoutB、權(quán)重衰減(WeightDecay)C、數(shù)據(jù)增強(qiáng)(DataAugmentation)D、學(xué)習(xí)率衰減(LearningRateDecay)參考答案:ABC12.在深度學(xué)習(xí)模型中,()技術(shù)可以用于提高圖像數(shù)據(jù)處理的效率和效果。A、使用卷積神經(jīng)網(wǎng)絡(luò)B、數(shù)據(jù)增強(qiáng)C、批量歸一化D、使用Dropout參考答案:ABC13.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型訓(xùn)練的穩(wěn)定性。A、批量歸一化B、梯度裁剪C、使用ReLU激活函數(shù)D、數(shù)據(jù)增強(qiáng)參考答案:AB14.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于提高模型的收斂速度和減輕梯度消失問題。A、梯度裁剪B、使用ReLU激活函數(shù)C、批量歸一化D、使用Dropout參考答案:ABC15.在深度學(xué)習(xí)模型訓(xùn)練中,()技術(shù)可以用于防止模型過擬合并提高模型在不同任務(wù)上的表現(xiàn)。A、使用卷積神經(jīng)網(wǎng)絡(luò)B、數(shù)據(jù)增強(qiáng)C、使用DropoutD、批量歸一化參考答案:BCD16.在深度學(xué)習(xí)模型設(shè)計(jì)中,()技術(shù)可以用于提高模型在圖像分類和文本處理任務(wù)上的泛化能力。A、數(shù)據(jù)增強(qiáng)B、使用卷積神經(jīng)網(wǎng)絡(luò)C、使用DropoutD、批量歸一化參考答案:ABCD17.在三層模式結(jié)構(gòu)中,()是數(shù)據(jù)庫(kù)的核心和關(guān)鍵,()通常是模式的子集,數(shù)據(jù)按模式的描述提供給用戶、按()的描述存儲(chǔ)在硬盤上。A、模式B、外模式C、內(nèi)模式D、數(shù)據(jù)結(jié)構(gòu)參考答案:ABC18.在任務(wù)欄上可以顯示的工具欄是()。A、地址B、鏈接C、桌面D、快速啟動(dòng)參考答案:ABCD19.在SQL語句中,X為INT數(shù)據(jù)類型,可以用來表示"10<X<15"的是()。A、X>10ANDX<15B、XBetween10And15C、XIN(11,12,13,14)D、XBetween11AND14參考答案:ACD20.語音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)據(jù)量,便于音頻數(shù)據(jù)的存儲(chǔ)和傳輸。常用的編碼格式有()。A、VIB、PCW(WAV)C、MP3D、JPG參考答案:BC21.語法類異常包括()。A、不規(guī)則的取值B、值域格式錯(cuò)誤C、詞法錯(cuò)誤D、數(shù)據(jù)中存在重復(fù)值參考答案:ABC22.以下敘述正確的是()。A、continue語句的作用是結(jié)束整個(gè)循環(huán)的執(zhí)行B、在循環(huán)體內(nèi)使用break語句或continue語句的作用相同C、只能在循環(huán)體內(nèi)使用break語句D、從多層循環(huán)嵌套中退出時(shí),可以使用break或continue語句參考答案:CD23.一個(gè)計(jì)算機(jī)網(wǎng)絡(luò)應(yīng)包含()等三個(gè)主要組成部分。A、通信子網(wǎng)B、若干主機(jī)C、傳輸介質(zhì)D、通信設(shè)備E、通信協(xié)議參考答案:ABE24.下列用戶的電子郵件地址中,錯(cuò)誤的是()。A、用戶名,用戶口令,電子郵箱所在的主機(jī)域名B、用戶名,用戶口令C、用戶名,電子郵箱所在的主機(jī)域名D、用戶口令,電子郵箱所在的主機(jī)域名參考答案:ABD25.下列計(jì)算機(jī)部件中()包含在主機(jī)內(nèi)。A、運(yùn)算器B、控制器C、隨機(jī)存儲(chǔ)器D、只讀存儲(chǔ)器參考答案:ABCD26.下列()是未來計(jì)算機(jī)的發(fā)展趨勢(shì)。A、提高性能B、縮小體積C、減少成本D、與通信技術(shù)結(jié)合E、與多媒體技術(shù)結(jié)合參考答案:ABCDE27.下列()是沖突操作。A、對(duì)同一個(gè)數(shù)據(jù)的讀寫操作B、對(duì)不同數(shù)據(jù)的讀寫操作C、對(duì)不同數(shù)據(jù)的寫寫操作D、對(duì)同一數(shù)據(jù)的寫寫操作參考答案:AD28.無人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)身份識(shí)別。A、計(jì)算機(jī)視覺B、傳感器定位C、深度學(xué)習(xí)算法D、圖像分析參考答案:ABCD29.為了進(jìn)行分類模型的訓(xùn)練和性能評(píng)價(jià),需要將輸入的標(biāo)注數(shù)據(jù)劃分為()。A、數(shù)據(jù)的類標(biāo)B、測(cè)試集C、數(shù)據(jù)的特征D、訓(xùn)練集參考答案:BD30.圖像數(shù)字化需要經(jīng)過的步驟包括()。A、采樣B、裁剪C、量化D、旋轉(zhuǎn)參考答案:AC31.圖像存儲(chǔ)格式包括()。A、JPGB、MPC、TXTD、PNG參考答案:ABD32.通用網(wǎng)絡(luò)爬蟲基本工作流程包括()。A、打開瀏覽器B、抓取網(wǎng)頁C、數(shù)據(jù)存儲(chǔ)D、預(yù)處理參考答案:BCD33.調(diào)查用戶的具體步驟主要有()。A、調(diào)查組織機(jī)構(gòu)情況B、調(diào)查各部門的業(yè)務(wù)活動(dòng)情況C、協(xié)助用戶明確對(duì)新系統(tǒng)的各種要求D、確定新系統(tǒng)的邊界參考答案:ABCD34.特征向量的形成過程包括()。A、特征形成B、特征提取C、特征選擇D、特征評(píng)判參考答案:ABC35.數(shù)字圖像處理一般要完成的任務(wù)有()。A、圖像增強(qiáng)B、圖像變換C、圖像獲取D、圖像識(shí)別參考答案:ABCD36.數(shù)據(jù)庫(kù)設(shè)計(jì)過程中形成數(shù)據(jù)庫(kù)的各級(jí)模式,大致可以總結(jié)為()。A、概念設(shè)計(jì)階段形成概念模式B、邏輯設(shè)計(jì)階段形成邏輯模式和外模式C、物理設(shè)計(jì)階段形成內(nèi)模式D、概念設(shè)計(jì)階段形成子模式參考答案:ABC37.數(shù)據(jù)庫(kù)名稱合法的是()。A、db1/studentB、db1.studentC、db1_studentD、b1&student參考答案:CD38.數(shù)據(jù)的完整性是指數(shù)據(jù)的()。A、一致性B、正確性C、相容性D、有效性參考答案:ABC39.屬于小波去噪步驟的有()。A、對(duì)圖像信號(hào)進(jìn)行小波分解B、對(duì)經(jīng)過層次分解后的高頻系數(shù)進(jìn)行閾值量化C、利用二維小波重構(gòu)圖像信號(hào)D、通過長(zhǎng)波實(shí)現(xiàn)噪聲消除參考答案:ABC40.屬于特征選擇的優(yōu)點(diǎn)有()。A、解決模型自身的缺陷B、減少過擬合C、提升模型的性能D、增強(qiáng)模型的泛化能力參考答案:BCD41.適合使用Python的有()。A、可作為腳本語言,快速編寫小型程序、腳本等B、可應(yīng)用在數(shù)據(jù)科學(xué)、交互式計(jì)算及可視化領(lǐng)域C、可作為膠水語言,整合如C++等語言代碼D、Python適用于低延時(shí)、高利用率的應(yīng)用場(chǎng)景參考答案:ABC42.神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,()技術(shù)可以幫助防止過擬合。A、早停法B、DropoutC、數(shù)據(jù)增強(qiáng)D、權(quán)重衰減(L2正則化)E、批量歸一化參考答案:ABCDE43.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是()。A、理論沒有發(fā)展起來B、科學(xué)界不重視C、計(jì)算能力跟不上D、標(biāo)注數(shù)據(jù)不足參考答案:CD44.人們從不同的角度去觀察問題,對(duì)模式分解等價(jià)的概念形成了()的不同定義。A、分解具有無損連接性B、分解保持函數(shù)依賴C、分解既要無損連接,也要保持函數(shù)依賴D、分解既不無損連接,也不保持函數(shù)依賴參考答案:ABC45.人工智能發(fā)展的三階段是指()。A、推理期B、思維期C、知識(shí)期D、機(jī)器學(xué)習(xí)期參考答案:ACD46.人工智能的基礎(chǔ)包括()。A、數(shù)學(xué)B、計(jì)算機(jī)科學(xué)C、經(jīng)濟(jì)學(xué)D、心理學(xué)參考答案:AB47.人工智能催生新技術(shù)()。A、生產(chǎn)方式B、生活方式C、行為模式D、思維模式參考答案:ABCD48.命名實(shí)體包括()。A、地名B、時(shí)間C、機(jī)構(gòu)名D、人名參考答案:ABCD49.每個(gè)獨(dú)立的視頻標(biāo)簽應(yīng)包括()信息。A、標(biāo)簽編碼B、文件路標(biāo)C、置信度D、容量參考答案:ABC50.聯(lián)想存儲(chǔ)的特點(diǎn)是()。A、可以存儲(chǔ)許多相關(guān)(激勵(lì)、響應(yīng))模式B、以分布穩(wěn)健的方式存儲(chǔ)信息C、即使輸入激勵(lì)模式完全失真時(shí),仍然可以產(chǎn)生正確的響應(yīng)模式D、可在原存儲(chǔ)中加入新的存儲(chǔ)模式參考答案:ABCD51.可以對(duì)數(shù)據(jù)庫(kù)RDS參數(shù)模板進(jìn)行()操作。A、復(fù)制B、編輯C、導(dǎo)出D、比較參考答案:ABCD52.卷積神經(jīng)網(wǎng)絡(luò)采用了()的方式,降低了計(jì)算量和過擬合的風(fēng)險(xiǎn)。A、局部連接B、全局變量C、權(quán)值共享D、加權(quán)參考答案:AC53.進(jìn)行模型訓(xùn)練之前,需要先把標(biāo)注好的數(shù)據(jù)進(jìn)行分類。訓(xùn)練有監(jiān)督學(xué)習(xí)模型時(shí)會(huì)將數(shù)據(jù)集劃分為()。A、訓(xùn)練集B、驗(yàn)證集C、測(cè)試集D、備份集參考答案:ABC54.交換機(jī)堆疊后,主交換機(jī)的選舉方式有()。A、用戶指定B、自動(dòng)選舉C、堆疊后,邏輯上是一個(gè)交換機(jī),因此堆疊成員沒有主備D、順序產(chǎn)生參考答案:AB55.計(jì)算機(jī)按照所處理的數(shù)據(jù)類型可以分為()。A、數(shù)字計(jì)算機(jī)B、模擬計(jì)算機(jī)C、混合計(jì)算機(jī)D、通用計(jì)算機(jī)參考答案:ABC56.基因遺傳算法常用的結(jié)束條件包括()。A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求C、達(dá)到一定的變異次數(shù)D、達(dá)到一定的交叉次數(shù)參考答案:AB57.關(guān)于自然語言處理正確的是()。A、目前最先進(jìn)的自然語言處理技術(shù)基于深度學(xué)習(xí)模型B、自然語言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過圖靈測(cè)試C、文本標(biāo)注的對(duì)象是自然語言文本D、文本標(biāo)注主要用于無監(jiān)督學(xué)習(xí)參考答案:ABC58.關(guān)于主鍵,說法正確的是()。A、可以是表中的一個(gè)字段B、是確定數(shù)據(jù)庫(kù)中的表的記錄的唯一標(biāo)識(shí)字段C、該字段不可為空也不可以重復(fù)D、可以是表中的多個(gè)字段組成的參考答案:ABCD59.關(guān)于神經(jīng)網(wǎng)絡(luò)的組織特性,說法正確的是()。A、可以模擬生物神經(jīng)系統(tǒng)B、面向真實(shí)世界物體C、面向仿真環(huán)境物體D、做出交互反應(yīng)參考答案:ABD60.關(guān)于刪除操作,說法正確的是()。A、dropdatabase數(shù)據(jù)庫(kù)名:刪除數(shù)據(jù)庫(kù)B、deletefrom表名;刪除表中所有記錄條C、deletefrom表名where字段名=值;刪除符合條件的記錄條D、roptable表名;刪除表參考答案:ABCD61.關(guān)于DELETE和TRUNCATETABLE的說法,正確的是()。A、兩者都可以刪除指定條目的記錄B、前者可以刪除指定條目的記錄,后者不能C、兩者都返回被刪除記錄的數(shù)目D、前者返回被刪除記錄數(shù)目,后者不返回參考答案:BD62.關(guān)系數(shù)據(jù)庫(kù)查詢處理可分為()步驟。A、查詢分析B、查詢檢查C、查詢優(yōu)化D、查詢執(zhí)行參考答案:ABCD63.關(guān)系的完整性主要是指()。A、實(shí)體完整性B、引用完整性C、用戶定義的完整性D、數(shù)據(jù)完整性參考答案:ABC64.谷歌相冊(cè)與傳統(tǒng)手機(jī)相冊(cè)最大的不同點(diǎn)是()。A、根據(jù)照片內(nèi)容自動(dòng)添加標(biāo)記B、根據(jù)不同標(biāo)記進(jìn)行歸類和搜索C、自動(dòng)對(duì)照片進(jìn)行美顏D、定時(shí)備份照片E、人臉識(shí)別和搜索參考答案:ABE65.反向傳播算法中,梯度下降的作用是()。A、計(jì)算神經(jīng)網(wǎng)絡(luò)權(quán)重的梯度B、更新網(wǎng)絡(luò)的權(quán)重和偏差C、提高模型的泛化能力D、以上都是參考答案:BC66.度量泛化能力好壞的最直觀表現(xiàn)是模型的()。A、過擬合B、欠擬合C、擬合度D、準(zhǔn)確度參考答案:AB67.大數(shù)據(jù)的業(yè)務(wù)應(yīng)用處理需要經(jīng)過()的流程。A、數(shù)據(jù)采集B、數(shù)據(jù)清洗C、數(shù)據(jù)建模D、數(shù)據(jù)加工參考答案:ABCD68.從機(jī)器學(xué)習(xí)預(yù)測(cè)目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分為()。A、回歸問題B、分類問題C、識(shí)別問題D、判定問題參考答案:AB69.常用的外存貯器有()。A、軟盤驅(qū)動(dòng)器B、隨機(jī)存取存儲(chǔ)器RAMC、硬盤驅(qū)動(dòng)器D、掃描儀E、優(yōu)盤參考答案:ACE70.常用的圖像數(shù)據(jù)標(biāo)注工具包括()。A、LabelMeB、IEPYC、LabellmgD、CVAT參考答案:AC71.不屬于強(qiáng)化學(xué)習(xí)目標(biāo)的是()。A、最小損失函數(shù)B、最大化收益C、局部最優(yōu)解D、全局最優(yōu)解參考答案:ACD72.并發(fā)操作可能會(huì)帶來的數(shù)據(jù)不一致性有()。A、丟失修改B、不可重復(fù)讀C、讀臟數(shù)據(jù)D、死鎖參考答案:ABC73.伴隨著人工智能技術(shù)的發(fā)展,出現(xiàn)了多種新的交互方式,如()。A、語音交互B、情感交互C、體感交互D、腦機(jī)交互參考答案:ABCD74.按照智能應(yīng)用場(chǎng)景,語音數(shù)據(jù)標(biāo)注任務(wù)可劃分為()。A、智能家居B、智能會(huì)議C、智能客服D、智能車載參考答案:ABCD75.URL組成()。A、檢索方式(協(xié)議)B、計(jì)算機(jī)服務(wù)器名稱C、文檔目錄和文件名D、任何隨意的檢索詞參考答案:ABC76.SQL中定義事務(wù)的語句主要有()。A、ENDTRANSACTIONB、EGINTRANSACTIONC、OMMITD、ROLLBACK參考答案:BCD77.SQL語言的數(shù)據(jù)操縱功能通常包括()動(dòng)詞。A、INSERTB、UPDATEC、DELETED、CREATE參考答案:ABC78.JSON信息概念包括()。A、數(shù)組B、對(duì)象C、屬性D、路徑參考答案:ABC79.INTERNET提供的服務(wù)主要有()。A、TelneyB、FTPC、WWWD、E—mail參考答案:ABCD80.DELETE(DEL)鍵的功能是()。A、刪除光標(biāo)前一個(gè)字符B、與CTRL和ALT合用,完成熱啟動(dòng)C、刪除光標(biāo)上的字符D、與Backspace(退格鍵)功能相同E、與Shift鍵配合,可以一次刪除一行參考答案:BC81.CSE微服務(wù)引擎支持()功能。A、服務(wù)注冊(cè)B、服務(wù)配置C、服務(wù)治理D、高性能微服務(wù)框架參考答案:ABCD82.BERT模型架構(gòu)的優(yōu)勢(shì)包括()。A、雙向上下文理解B、能夠處理長(zhǎng)序列數(shù)據(jù)C、適合大規(guī)模數(shù)據(jù)集D、低資源消耗參考答案:ABC83.ASR在中文領(lǐng)域有很大的難度,主要原因是()。A、中文博大精深B、方言眾多C、目前ASR技術(shù)不成熟D、數(shù)據(jù)量不夠參考答案:AB84.a=np.array([1,2,3,4,5,6,7,8]),()可以使輸出結(jié)果為([5,7])。A、[4:7]B、a[5:8]C、a[4:-1]D、a[5:]參考答案:AC85.()用循環(huán)神經(jīng)網(wǎng)絡(luò)處理效果比較好。A、語音識(shí)別B、自然語言處理C、圖像識(shí)別D、人臉識(shí)別參考答案:AB86.()因素可能影響神經(jīng)網(wǎng)絡(luò)的訓(xùn)練效果。A、學(xué)習(xí)率B、批量大小C、損失函數(shù)的選擇D、激活函數(shù)的選擇E、數(shù)據(jù)集的規(guī)模參考答案:ABCDE87.()是正確的Python字符串。A、‘a(chǎn)bc”ab”B、‘a(chǎn)bc”ab’C、“abc”ab”D、“abc\”ab”參考答案:BD88.()是圖像分割中常用的基于區(qū)域的方法。A、K-means算法B、MeanShift算法C、分水嶺算法D、直方圖均衡化參考答案:ABC89.()是數(shù)值數(shù)據(jù)類型(即可用于算術(shù)表達(dá)式)。A、0xffB、99C、122D、“1002”參考答案:ABC90.()是輸出設(shè)備。A、打印機(jī)B、鍵盤C、掃描儀D、顯示器E、鼠標(biāo)參考答案:AD91.()是事務(wù)特性。A、獨(dú)立性B、持久性C、原子性D、一致性參考答案:ABCD92.()是生成式人工智能模型訓(xùn)練方法的特點(diǎn)。A、使用經(jīng)典優(yōu)化器B、低精度表示法C、分布式訓(xùn)練D、數(shù)據(jù)規(guī)范化參考答案:ABC93.()是人類特有的,而機(jī)器所不具備的。A、定量計(jì)算B、規(guī)律總結(jié)C、推理和直覺D、廣泛外延參考答案:BCD94.()是人工智能的子領(lǐng)域。A、自然語言處理B、人類行為學(xué)C、機(jī)器視覺D、電腦維護(hù)參考答案:AC95.()是典型的自然語言處理(NLP)任務(wù)。A、語音識(shí)別B、文本分類C、圖像分割D、機(jī)器翻譯參考答案:ABD96.()是常見的機(jī)器學(xué)習(xí)算法。A、支持向量機(jī)(SVM)B、K均值聚類C、深度學(xué)習(xí)D、決策樹參考答案:ABCD97.()可用于數(shù)據(jù)采集技術(shù)。A、FlumeB、HiveC、KafkaD、Mahout參考答案:AC98.()可以認(rèn)為是計(jì)算機(jī)視覺的任務(wù)。A、圖像存儲(chǔ)B、圖像/視頻中文字的檢測(cè)和識(shí)別C、視頻中感興趣目標(biāo)的檢測(cè)跟蹤和定位D、圖像中前景物體與背景的分割參考答案:BCD99.()行業(yè)需要用到數(shù)據(jù)采集。A、企業(yè)B、政府C、金融反欺詐D、教育參考答案:ABCD100.()方法可以用于提高神經(jīng)網(wǎng)絡(luò)模型的泛化能力。A、數(shù)據(jù)增強(qiáng)B、正則化C、使用更大的網(wǎng)絡(luò)結(jié)構(gòu)D、批量歸一化E、交叉驗(yàn)證參考答案:ABDE判斷題1.自然語言包括人類交流的語言——口語、書面語、手語、旗語等,而人造語言是在自然語言基礎(chǔ)上改良的自然語言。A、正確B、錯(cuò)誤參考答案:B2.注意力機(jī)制只適用于提高機(jī)器翻譯的準(zhǔn)確性。A、正確B、錯(cuò)誤參考答案:B3.注意力機(jī)制能夠提升模型對(duì)長(zhǎng)距離依賴關(guān)系的捕捉能力。A、正確B、錯(cuò)誤參考答案:A4.注意力機(jī)制能夠提高深度學(xué)習(xí)模型的泛化能力。A、正確B、錯(cuò)誤參考答案:A5.注意力機(jī)制能夠提高模型對(duì)長(zhǎng)距離依賴的捕捉能力。A、正確B、錯(cuò)誤參考答案:A6.智能家居應(yīng)該能自動(dòng)感知周圍的環(huán)境,不需要人的操控。A、正確B、錯(cuò)誤參考答案:A7.針對(duì)數(shù)據(jù)標(biāo)注疑問案例分類型整理,可對(duì)項(xiàng)目質(zhì)量提升產(chǎn)生正向增益。A、正確B、錯(cuò)誤參考答案:A8.針對(duì)電力元件故障的預(yù)測(cè)模型需要較高的泛化能力這一問題,可選用Adaboost集成算法提升性能。Adaboost算法是一種帶有自適應(yīng)功能、可以自動(dòng)調(diào)整權(quán)值的Bagging集成算法。A、正確B、錯(cuò)誤參考答案:B9.召回率(Recall)是指分類正確的正樣本個(gè)數(shù)(TP)占真正的正樣本個(gè)數(shù)(TP+FN)的比例。A、正確B、錯(cuò)誤參考答案:A10.在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)中,LSTM單元通過門控機(jī)制解決了長(zhǎng)期依賴問題,比標(biāo)準(zhǔn)RNN表現(xiàn)更好。A、正確B、錯(cuò)誤參考答案:A11.在圖像處理中,采樣越細(xì),像素越小,越能精確地表現(xiàn)圖像。A、正確B、錯(cuò)誤參考答案:A12.在搜索數(shù)據(jù)庫(kù)中的數(shù)據(jù)時(shí),SQL通配符可以替代一個(gè)或多個(gè)字符,SQL通配符必須與LIKE運(yùn)算符一起使用。A、正確B、錯(cuò)誤參考答案:A13.在數(shù)據(jù)庫(kù)的三級(jí)模式結(jié)構(gòu)中,內(nèi)模式可以有多個(gè)。A、正確B、錯(cuò)誤參考答案:B14.在數(shù)據(jù)標(biāo)注中,當(dāng)標(biāo)注人員標(biāo)注的數(shù)據(jù)被質(zhì)檢人員判誤,可以進(jìn)行申訴。A、正確B、錯(cuò)誤參考答案:A15.在數(shù)據(jù)標(biāo)注過程中,“圖片非正常顯示”屬于標(biāo)注平臺(tái)可能出現(xiàn)的BUG。A、正確B、錯(cuò)誤參考答案:A16.在使用子查詢時(shí),必須使用括號(hào)把子查詢括起來,以便區(qū)分外查詢和子查詢。A、正確B、錯(cuò)誤參考答案:A17.在神經(jīng)網(wǎng)絡(luò)中,權(quán)重初始化對(duì)模型的訓(xùn)練速度和性能沒有影響。A、正確B、錯(cuò)誤參考答案:B18.在深度學(xué)習(xí)模型訓(xùn)練中,學(xué)習(xí)率越大,訓(xùn)練速度越快,最優(yōu)解越精確。A、正確B、錯(cuò)誤參考答案:B19.在人工智能領(lǐng)域,邏輯推理是一種讓計(jì)算機(jī)根據(jù)事實(shí)和規(guī)則進(jìn)行推理和決策的技術(shù)。A、正確B、錯(cuò)誤參考答案:A20.在進(jìn)行數(shù)據(jù)查詢時(shí),不能指定查詢結(jié)果的標(biāo)題,只能用字段名作標(biāo)題。A、正確B、錯(cuò)誤參考答案:B21.在機(jī)器學(xué)習(xí)中,模型選擇通常指的是從多個(gè)候選模型中選擇最優(yōu)的模型。A、正確B、錯(cuò)誤參考答案:A22.在關(guān)系理論中,把能夠唯一地確定一個(gè)元組的屬性或?qū)傩越M合稱為域。A、正確B、錯(cuò)誤參考答案:B23.在表中創(chuàng)建一個(gè)標(biāo)識(shí)列(IDENTITY),當(dāng)用戶向表中插入新的數(shù)據(jù)行時(shí),系統(tǒng)自動(dòng)為該行標(biāo)識(shí)列賦值。A、正確B、錯(cuò)誤參考答案:A24.語音識(shí)別、計(jì)算機(jī)視覺等領(lǐng)域的突破離不開深度學(xué)習(xí)算法。A、正確B、錯(cuò)誤參考答案:A25.語言識(shí)別是人工智能的重要分支之一,它解決的是不僅能聽人們?cè)谡f什么,而且能聽懂這些話的意思。A、正確B、錯(cuò)誤參考答案:B26.與超聲傳感器相比,紅外測(cè)距的準(zhǔn)確度更高。A、正確B、錯(cuò)誤參考答案:B27.由于不同地方有不同的文化,機(jī)器翻譯有時(shí)會(huì)出現(xiàn)歧義。A、正確B、錯(cuò)誤參考答案:A28.用傳感器采集環(huán)境信息是機(jī)器人智能化的第一步。A、正確B、錯(cuò)誤參考答案:A29.引入預(yù)訓(xùn)練模型可以提高深度學(xué)習(xí)模型在新任務(wù)上的表現(xiàn)。A、正確B、錯(cuò)誤參考答案:A30.引入預(yù)訓(xùn)練模型可以縮短模型訓(xùn)練時(shí)間。A、正確B、錯(cuò)誤參考答案:A31.一個(gè)數(shù)據(jù)表只能有一個(gè)唯一索引。A、正確B、錯(cuò)誤參考答案:B32.一般優(yōu)秀的詩(shī)詞都是從真情實(shí)感出發(fā)。A、正確B、錯(cuò)誤參考答案:A33.巡檢缺陷樣本標(biāo)注時(shí),缺陷目標(biāo)框大小與照片的比例應(yīng)盡可能保持不變。A、正確B、錯(cuò)誤參考答案:B34.序列標(biāo)注任務(wù)適合使用注意力機(jī)制來提升性能。A、正確B、錯(cuò)誤參考答案:A35.虛擬IP主要用在云服務(wù)器的主備切換,達(dá)到高可用性HA(HighAvailability)的目的。A、正確B、錯(cuò)誤參考答案:A36.新中國(guó)第一家證券交易所創(chuàng)立于北京東城。A、正確B、錯(cuò)誤參考答案:B37.相同型號(hào)的機(jī)器人面對(duì)相同的大數(shù)據(jù)、相同的算法,會(huì)做出相同的股票操作策略。A、正確B、錯(cuò)誤參考答案:A38.現(xiàn)在要設(shè)計(jì)一個(gè)節(jié)點(diǎn),開發(fā)路徑規(guī)劃功能,輸入是目標(biāo)點(diǎn)和起始點(diǎn),輸出是路徑,適合用Topic通信方式。A、正確B、錯(cuò)誤參考答案:B39.物聯(lián)網(wǎng)的數(shù)據(jù)處理技術(shù)主要是實(shí)現(xiàn)數(shù)據(jù)的存儲(chǔ)、處理、分析、決策與高效應(yīng)用。A、正確B、錯(cuò)誤參考答案:A40.文本挖掘又稱信息檢索,是從大量文本數(shù)據(jù)中提取以前未知的、有用的、可理解的、可操作的知識(shí)的過程。A、正確B、錯(cuò)誤參考答案:B41.文本標(biāo)注是將文字、標(biāo)點(diǎn)在內(nèi)的文本進(jìn)行標(biāo)注,是計(jì)算機(jī)能夠讀懂識(shí)別從而應(yīng)用于人類的生產(chǎn)領(lǐng)域。A、正確B、錯(cuò)誤參考答案:A42.謂詞的個(gè)體,可以是一個(gè)常量,也可以是一個(gè)變?cè)€可以是一個(gè)多元。A、正確B、錯(cuò)誤參考答案:B43.位置傳感器是指能感受被測(cè)物的位置并轉(zhuǎn)換成可用輸出信號(hào)的傳感器。A、正確B、錯(cuò)誤參考答案:A44.維修人員必須保管好機(jī)器人鑰匙,嚴(yán)禁非授權(quán)人員在手動(dòng)模式下進(jìn)入機(jī)器人軟件系統(tǒng)隨意翻閱或修改程序及參數(shù)。A、正確B、錯(cuò)誤參考答案:A45.為了讓MySQL較好地支持中文,在安裝MySQL時(shí),應(yīng)該將數(shù)據(jù)庫(kù)服務(wù)器的缺省字符集設(shè)定為gb2312。A、正確B、錯(cuò)誤參考答案:B46.微服務(wù)架構(gòu)模式下.開發(fā)者無法自由選擇開發(fā)技術(shù)來提供API服務(wù)。A、正確B、錯(cuò)誤參考答案:B47.圖像二值化處理是將圖像中感興趣的部分置1、背景部分置2。A、正確B、錯(cuò)誤參考答案:B48.圖靈認(rèn)為人工智能應(yīng)當(dāng)是一個(gè)模擬成人成熟思維的系統(tǒng)。A、正確B、錯(cuò)誤參考答案:B49.圖靈測(cè)試存在的潛臺(tái)詞是機(jī)器智能的極限可以超越人的智能,機(jī)器智能可以不與人的智能比擬。A、正確B、錯(cuò)誤參考答案:B50.同一個(gè)Topic上可以有多個(gè)發(fā)布者。A、正確B、錯(cuò)誤參考答案:A51.提示學(xué)習(xí)是一種通過提供大量樣本進(jìn)行學(xué)習(xí)的方法。A、正確B、錯(cuò)誤參考答案:B52.梯度裁剪僅適用于卷積神經(jīng)網(wǎng)絡(luò)(CNN)。A、正確B、錯(cuò)誤參考答案:B53.特征提取方式需要根據(jù)語音單元的特點(diǎn)提取。A、正確B、錯(cuò)誤參考答案:A54.隨著訓(xùn)練樣本數(shù)據(jù)量的提升,模型的泛化誤差上界越小,泛化能力也隨之提升。A、正確B、錯(cuò)誤參考答案:A55.數(shù)字化示范需統(tǒng)籌考慮公司數(shù)字化轉(zhuǎn)型發(fā)展戰(zhàn)略綱要和“十四五”數(shù)字化規(guī)劃,打造四層兩類示范,即縱貫(總部、省、市、縣)四個(gè)層級(jí)的專項(xiàng)示范和綜合示范。A、正確B、錯(cuò)誤參考答案:B56.數(shù)據(jù)增強(qiáng)技術(shù)可以用于提高自然語言處理任務(wù)的性能。A、正確B、錯(cuò)誤參考答案:A57.數(shù)據(jù)增強(qiáng)技術(shù)可以用于減輕深度學(xué)習(xí)模型的過擬合問題。A、正確B、錯(cuò)誤參考答案:A58.數(shù)據(jù)增強(qiáng)技術(shù)可以通過添加噪聲來實(shí)現(xiàn)。A、正確B、錯(cuò)誤參考答案:A59.數(shù)據(jù)預(yù)處理是在大數(shù)據(jù)和人工智能領(lǐng)域中常見的操作,用于清洗、轉(zhuǎn)換和歸一化原始數(shù)據(jù)。A、正確B、錯(cuò)誤參考答案:A60.數(shù)據(jù)試標(biāo)只存在于短期高頻項(xiàng)目,長(zhǎng)期項(xiàng)目不用試標(biāo)。A、正確B、錯(cuò)誤參考答案:B61.數(shù)據(jù)清洗是指為了保證模型訓(xùn)練效果,利用僅有的數(shù)據(jù)樣本生成額外的人工合成的數(shù)據(jù),提升泛化能力。A、正確B、錯(cuò)誤參考答案:B62.數(shù)據(jù)庫(kù)恢復(fù)是使被故障破壞掉的數(shù)據(jù)恢復(fù)到故障前的某種數(shù)據(jù)一致的狀態(tài)。A、正確B、錯(cuò)誤參考答案:A63.數(shù)據(jù)庫(kù)安全審計(jì)的操作日志默認(rèn)會(huì)一直保存。A、正確B、錯(cuò)誤參考答案:A64.數(shù)據(jù)科學(xué)是根據(jù)數(shù)據(jù)世界的分析結(jié)果,對(duì)現(xiàn)實(shí)世界進(jìn)行預(yù)測(cè)、洞見、解釋或決策的新興科學(xué)。A、正確B、錯(cuò)誤參考答案:A65.數(shù)據(jù)科學(xué)流程的特殊性在于需要將科學(xué)家的3C精神融入業(yè)務(wù)流程。A、正確B、錯(cuò)誤參考答案:A66.視圖是一個(gè)虛擬表,并不表示任何物理數(shù)據(jù),只是用來查看數(shù)據(jù)的窗口而已。A、正確B、錯(cuò)誤參考答案:A67.視覺相機(jī)可以獲取物體高度方向的位置信息。A、正確B、錯(cuò)誤參考答案:B68.使用SQL語言的CREATETABLE命令可以直接建立表。A、正確B、錯(cuò)誤參考答案:A69.使用Dropout技術(shù)能夠提高深度學(xué)習(xí)模型的訓(xùn)練速度。A、正確B、錯(cuò)誤參考答案:B70.使用Dropout技術(shù)可以在一定程度上防止深度學(xué)習(xí)模型過擬合。A、正確B、錯(cuò)誤參考答案:A71.使用Dropout技術(shù)可以有效防止深度學(xué)習(xí)模型的過擬合問題。A、正確B、錯(cuò)誤參考答案:A72.使用Dropout技術(shù)會(huì)顯著增加模型的訓(xùn)練時(shí)間。A、正確B、錯(cuò)誤參考答案:B73.使用Dropout技術(shù)不會(huì)影響模型的最終性能。A、正確B、錯(cuò)誤參考答案:B74.省級(jí)人工智能服務(wù)門戶提供運(yùn)行環(huán)境、模型庫(kù)、樣本庫(kù)、應(yīng)用管理等統(tǒng)一入口,提供通用模型、專用模型、應(yīng)用案例等開放能力服務(wù)。A、正確B、錯(cuò)誤參考答案:A75.神經(jīng)網(wǎng)絡(luò)是一種模仿人腦神經(jīng)元結(jié)構(gòu)和工作原理的計(jì)算模型。A、正確B、錯(cuò)誤參考答案:A76.深度學(xué)習(xí)中的自編碼器AutoEncoder是一種無監(jiān)督學(xué)習(xí)算法,用于學(xué)習(xí)數(shù)據(jù)的壓縮表示。A、正確B、錯(cuò)誤參考答案:A77.深度學(xué)習(xí)雖然是一個(gè)熱門領(lǐng)域,但是已有多年的發(fā)展歷史,主要有快速發(fā)展期和爆發(fā)期。A、正確B、錯(cuò)誤參考答案:A78.深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個(gè)分支,主要關(guān)注如何使用神經(jīng)網(wǎng)絡(luò)來解決復(fù)雜問題。A、正確B、錯(cuò)誤參考答案:A79.深度學(xué)習(xí)模型中的正則化技術(shù),如L1和L2正則化,主要用于增加模型的復(fù)雜度,提高預(yù)測(cè)精度。A、正確B、錯(cuò)誤參考答案:B80.深度學(xué)習(xí)就是一種綠色人工智能。A、正確B、錯(cuò)誤參考答案:B81.申請(qǐng)負(fù)載均衡創(chuàng)建的負(fù)載均衡為融合ELB時(shí),用戶可以通過添加黑名單的方式控制訪問負(fù)載均衡的監(jiān)聽器的IP。A、正確B、錯(cuò)誤參考答案:B82.刪除錯(cuò)誤是指實(shí)際語音中有,但識(shí)別結(jié)果里沒有。A、正確B、錯(cuò)誤參考答案:A83.若使用REVOKE命令撤消某用戶創(chuàng)建表的權(quán)限,則該用戶將無權(quán)創(chuàng)建表。A、正確B、錯(cuò)誤參考答案:B84.任何包含前景和背景的圖像都可以使用大津法獲得最佳閾值。A、正確B、錯(cuò)誤參考答案:B85.人效和準(zhǔn)確率是影響標(biāo)注數(shù)據(jù)指標(biāo)達(dá)成的因素。A、正確B、錯(cuò)誤參考答案:A86.人類智能可以和機(jī)器智能相互融合。A、正確B、錯(cuò)誤參考答案:A87.人機(jī)交互是指關(guān)于設(shè)計(jì)、評(píng)價(jià)和實(shí)現(xiàn)供人們使用的交互式計(jì)算機(jī)系統(tǒng),并圍繞相關(guān)的主要現(xiàn)象進(jìn)行研究的學(xué)科。A、正確B、錯(cuò)誤參考答案:A88.人工智能算法不需要數(shù)據(jù)來進(jìn)行訓(xùn)練。A、正確B、錯(cuò)誤參考答案:B89.人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,是智能計(jì)算機(jī)系統(tǒng)即人類智慧在機(jī)器上的模擬,或者說是人們使機(jī)器具有類似于人的智慧(對(duì)語言能理解、能學(xué)習(xí)、能推理)。A、正確B、錯(cuò)誤參考答案:A90.人工智能是計(jì)算機(jī)科學(xué)的一個(gè)分支,即智能計(jì)算機(jī)系統(tǒng),也就是人類智慧在機(jī)器上的模擬,或者說是人們使機(jī)器具有類似于人的智慧(對(duì)語言能理解、能學(xué)習(xí)、能推理)。A、正確B、錯(cuò)誤參考答案:A91.人工智能是20世紀(jì)50年代才開始研究的一項(xiàng)技術(shù),還沒有得到應(yīng)用。A、正確B、錯(cuò)誤參考答案:B92.人工智能核心體系架構(gòu)包括技術(shù)層、應(yīng)用層、基礎(chǔ)層、網(wǎng)絡(luò)層。A、正確B、錯(cuò)誤參考答案:B93.人工智能的發(fā)展完全依賴于算法的進(jìn)步,與數(shù)據(jù)的質(zhì)量和數(shù)量無關(guān)。A、正確B、錯(cuò)誤參考答案:B94.人工神經(jīng)元網(wǎng)絡(luò)只需要很少的數(shù)據(jù)便可掌握處理特定問題的能力。A、正確B、錯(cuò)誤參考答案:B95.人工神經(jīng)元網(wǎng)絡(luò)會(huì)遭遇“框架問題”。A、正確B、錯(cuò)誤參考答案:B96.人對(duì)音頻信息的記憶是長(zhǎng)期記憶。A、正確B、錯(cuò)誤參考答案:B97.缺省情況下,所創(chuàng)建的索引是非聚集索引。A、正確B、錯(cuò)誤參考答案:A98.前三次工業(yè)革命是機(jī)器人代替人的體力勞動(dòng),正在到來的人工智能革命將開始代替腦力勞動(dòng)。A、正確B、錯(cuò)誤參考答案:A99.批量歸一化有助于解決梯度消失問題。A、正確B、錯(cuò)誤參考答案:B100.批量歸一化可以應(yīng)用于模型的任何層,包括輸入層和隱藏層。A、正確B、錯(cuò)誤參考答案:A101.批量歸一化僅在全連接網(wǎng)絡(luò)中有效。A、正確B、錯(cuò)誤參考答案:B102.逆文檔頻率值越大,重要性越大。A、正確B、錯(cuò)誤參考答案:A103.目前人工智能還不能理解人類智能。A、正確B、錯(cuò)誤參考答案:A104.目前,學(xué)術(shù)界對(duì)人工智能已經(jīng)形成了統(tǒng)一標(biāo)準(zhǔn)的概念。A、正確B、錯(cuò)誤參考答案:B105.目前,全球主要的國(guó)家和地區(qū)都已經(jīng)將人工智能視為戰(zhàn)略制高點(diǎn),加大力度進(jìn)行發(fā)展。A、正確B、錯(cuò)誤參考答案:A106.目標(biāo)變量的影響因素可以是連續(xù)值也可以是離散值,自變量和目標(biāo)變量之間的關(guān)系被稱為模型。A、正確B、錯(cuò)誤參考答案:A107.路徑規(guī)劃方法通過對(duì)空間解析離散化或者隨機(jī)采

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論