2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)-含答案_第1頁
2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)-含答案_第2頁
2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)-含答案_第3頁
2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)-含答案_第4頁
2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)-含答案_第5頁
已閱讀5頁,還剩143頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年高級(jí)人工智能訓(xùn)練師(三級(jí))理論考試題庫(kù)_含答案1.()工具可以將Caffe/TensorFlow等模型轉(zhuǎn)化為華為NPU芯片支持的模型,C、圖引擎優(yōu)化2.優(yōu)化器的選擇可能受到模型()的影響。A、復(fù)雜度3.在團(tuán)結(jié)協(xié)作中,對(duì)他人提供幫助是一種()。D、個(gè)體主義4.()填充缺失值費(fèi)時(shí)費(fèi)力,不適用數(shù)據(jù)集大的情況。A、人工D、均值填充5.關(guān)于支持向量機(jī)算法,以下說法錯(cuò)誤的是?()6.()是人與計(jì)算機(jī)進(jìn)行信息交互的接口界面。C、人機(jī)交互接口7.敏感數(shù)據(jù)的()和去標(biāo)識(shí)化處理、系統(tǒng)抵抗黑客攻擊的能力等問題很突出。A、刪除C、強(qiáng)化8.以下選項(xiàng)中,常用于分詞的工具有()。9.當(dāng)事人訂立、履行合同,應(yīng)當(dāng)遵守()、行政法規(guī),尊重社會(huì)公德,不得擾亂10.ResNet通過()來增加卷積層數(shù)學(xué)習(xí)更深層次的特征。B、加入殘差塊11.分布式文件系統(tǒng)能夠方便不同用戶使用,這表現(xiàn)了系統(tǒng)的()。13.良好的文本標(biāo)注是項(xiàng)目成功的()。D、無關(guān)因素14.()語音標(biāo)注中檢驗(yàn)每個(gè)的標(biāo)注是否與語音數(shù)據(jù)發(fā)音的時(shí)間軸保持一致。C、詞語15.在Tensorflow2.0中,用于保存和加載模型權(quán)重的函數(shù)是()。16.正則表達(dá)式一般進(jìn)行()操作,進(jìn)行文本匹配。A、圖片D、動(dòng)畫A、RNN比LSTM能記住更長(zhǎng)的上下文B、雙向的RNN比單向RNN更能捕捉上下文信息18.進(jìn)行主成分分析要對(duì)數(shù)據(jù)進(jìn)行()。A、去中心化B、中心化C、集成化D、去集成化19.以下不能用于評(píng)估模型的是()。B、召回率20.召回率(recall)的計(jì)算方法為()。21.文本語料的來源可能是()。B、鼠標(biāo)D、耳機(jī)22.數(shù)據(jù)清洗的目的是()。A、色相24.()指的是在分布式數(shù)據(jù)庫(kù)能方便地通過水平或垂直擴(kuò)展提高系統(tǒng)的整體性B、易擴(kuò)展性25.以下不屬于TensorFlow2.0中查看是否是tensor的方法的是()。A、is_tensor26.PyTorch的主要特點(diǎn)之一是其()。27.結(jié)巴分詞的安裝包括全自動(dòng)安裝、()和手工安裝。A、半自動(dòng)安裝28.以下()不屬于linux系統(tǒng)。29.反向傳播算法包含以下哪個(gè)階段?()30.對(duì)于臉部截?cái)嗷蛘叽骺谡值娜四槇D片,選擇()標(biāo)注,合理推斷每個(gè)點(diǎn)位。C、隨機(jī)性D、推測(cè)性31.深度學(xué)習(xí)和機(jī)器學(xué)習(xí)算法說法正確的是()。A、機(jī)器學(xué)習(xí)就是深度學(xué)習(xí)32.關(guān)于概率圖模型的描述,下列說法正確的是()。33.模型中的正則化項(xiàng)用于()。34.()以下哪個(gè)是文本分類的步驟?D、人臉識(shí)別35.以下屬于集成學(xué)習(xí)算法的是()。36.MoXing的主要功能是()。D、TensorFlow等深度學(xué)習(xí)引擎API接口的簡(jiǎn)單封裝37.在昇騰芯片硬件架構(gòu)中,優(yōu)化的重點(diǎn)是提高()。38.根據(jù)數(shù)據(jù)標(biāo)注對(duì)象不同,可以分為()標(biāo)注、語言標(biāo)注、圖像標(biāo)注和視頻標(biāo)39.關(guān)于職業(yè)道德對(duì)企業(yè)發(fā)展的積極作用,你認(rèn)為正確的論述是()。40.()是數(shù)據(jù)的基本單位。C、數(shù)組41.集成學(xué)習(xí)中的Voting方法是基于()進(jìn)行的。42.圖像類標(biāo)注任務(wù)的數(shù)據(jù)結(jié)果為帶有()的信息?43.以下關(guān)于圖像濾波說法不正確的是()。D、圖像濾波是圖像預(yù)處理的主要流程之一,在盡量保留圖像細(xì)節(jié)特征的條件下44.下列哪一個(gè)不是語音預(yù)處理的操作?()45.Iinux中ps-f命令中表示“進(jìn)程ID”信息的是()。46.下面屬于多媒體素材編輯軟件的是()。47.深度學(xué)習(xí)中常見的優(yōu)化算法包括()。48.()是由人和計(jì)算機(jī)共同組成的一個(gè)系統(tǒng)。B、人機(jī)協(xié)同系統(tǒng)49.手部的21個(gè)關(guān)鍵點(diǎn)包括()、各指尖以及各指節(jié)骨連接處。C、腳尖D、腳踝50.MindSpore框架提供了豐富的()功能,適用于不同應(yīng)用場(chǎng)景。B、訓(xùn)練51.優(yōu)化器的學(xué)習(xí)率是一個(gè)()參數(shù)。A、固定的C、隨機(jī)的52.分布式存儲(chǔ)系統(tǒng)的可伸縮性指的是其能夠()。53.在最優(yōu)策略求解中,動(dòng)態(tài)規(guī)劃和貪婪算法的主要區(qū)別在于()。A、時(shí)間復(fù)雜度C、是否適用于連續(xù)問題D、是否適用于離散問題54.Python中,文本數(shù)據(jù)是使用()。A、int55.模型的準(zhǔn)確度是指模型在()方面的表現(xiàn)。C、時(shí)間復(fù)雜度D、空間復(fù)雜度56.下列不屬于HMM模型問題的是()。57.HSV中V取值范圍為()。58.Iinux中Is是什么操作。()B、切換目錄59.以下哪個(gè)是常用的損失函數(shù)()?C、系統(tǒng)D、網(wǎng)絡(luò)61.在模型中使用正則化項(xiàng)的目的是()。62.人臉3D朝向工具涉及的()、輔助調(diào)整的操作很多。63.TPOT是賓夕法尼亞大學(xué)遺傳算法實(shí)驗(yàn)室開發(fā)的一個(gè)()框架。C、自動(dòng)機(jī)器學(xué)習(xí)64.要解決數(shù)據(jù)的()、敏感數(shù)據(jù)的脫敏和去標(biāo)識(shí)化處理等問題。D、收集65.模型的有效性通常通過()來評(píng)估。B、準(zhǔn)確度66.()中的人身權(quán)是與智力活動(dòng)成果創(chuàng)造人的人身不可分離的專屬權(quán)。67.以下不是大數(shù)據(jù)存儲(chǔ)需要注意的是()。68.CART算法選擇()作為屬性選擇標(biāo)準(zhǔn)。69.()為使用者提供一個(gè)分配、流轉(zhuǎn)和協(xié)作處理問題的工作平臺(tái)。70.以下不是特征選擇方法的是()。A、伸縮聚類C、遞歸消除法71.KNN的K值選擇方法不包括()。72.以下屬于人臉識(shí)別步驟的是()。73.下面屬于數(shù)據(jù)預(yù)處理的是()。74.當(dāng)事人應(yīng)當(dāng)()公平原則確定各方的權(quán)利和義務(wù)。75.強(qiáng)化學(xué)習(xí)中,獎(jiǎng)勵(lì)信號(hào)的作用是()。76.以下哪個(gè)選項(xiàng)不屬于自然語言處理技術(shù)的三個(gè)層面()。77.Iinux中more是什么操作。()B、切換目錄78.手勢(shì)識(shí)別可以被視為()理解人體語言的方式,從而在機(jī)器和人之間搭建比D、機(jī)器人79.神經(jīng)網(wǎng)絡(luò)深度過深容易出現(xiàn)()問題。80.假如你在訓(xùn)練一個(gè)線性回歸模型,有下面兩句話:1.如果數(shù)據(jù)量較少,容易正確的是()。A、1和2都錯(cuò)誤B、1正確,2錯(cuò)誤C、1錯(cuò)誤,2正確D、1和2都正確81.以下不屬于愛崗敬業(yè)的表現(xiàn)的是()。B、強(qiáng)化責(zé)任82.在梯度下降算法中,有各種不同的改進(jìn)版本。在面向?qū)ο蟮恼Z言實(shí)現(xiàn)中,往往把不同的梯度下降算法封裝成一個(gè)對(duì)象,稱為()。A、迭代器B、裝飾器D、加速器83.ModelArts目前支持的預(yù)置模型不包括()。84.以下根據(jù)鄰近值決定其類別的監(jiān)督算法是()。85.人工神經(jīng)網(wǎng)絡(luò)包括輸入層、()和輸出層。C、隱藏層86.以下?lián)p失函數(shù)可以用于回歸任務(wù)的是()。B、L2損失函數(shù)(MSE:均方誤差)87.最基本的超參數(shù)優(yōu)化算法之一是()。B、離線數(shù)據(jù)分析C、手動(dòng)挖掘89.()數(shù)據(jù)標(biāo)注中,負(fù)責(zé)標(biāo)記數(shù)據(jù)的是哪個(gè)角色?90.在()境內(nèi)的企業(yè)、個(gè)體經(jīng)濟(jì)組織(以下統(tǒng)稱用人單位)和與之形成勞動(dòng)關(guān)B、美國(guó)91.以下哪個(gè)不是華為一站式AI開發(fā)平臺(tái)ModelArts目前支持的預(yù)置模型?()92.以下哪個(gè)不是深度學(xué)習(xí)的優(yōu)化器?()93.在算法的特點(diǎn)中,復(fù)雜性通常與算法的()相關(guān)。94.()泛指將收集到的原始信息按照一定程序和方法進(jìn)行處理。95.Tensorflow2.0中的KerasSequential模型適用于()。96.()通過在文本文件最后一行后放置文件來指明文件的結(jié)束。97.以下不屬于常見的強(qiáng)化學(xué)習(xí)應(yīng)用場(chǎng)景的是()。C、人臉識(shí)別98.下面屬于數(shù)據(jù)預(yù)處理過程的是()。99.團(tuán)結(jié)協(xié)作能夠提高團(tuán)隊(duì)的()。100.以下哪個(gè)屬于機(jī)器學(xué)習(xí)的主要分類任務(wù)?()101.正則化在深度學(xué)習(xí)中可以通過以下哪種方式實(shí)現(xiàn)?()102.文件系統(tǒng)的作用是()。103.以下不屬于訓(xùn)練詞向量的算法的是()。104.下面屬于定序等級(jí)的數(shù)據(jù)的是()。C、工作種類105.隱馬爾科夫鏈解碼問題使用的經(jīng)典算法是()。B、前向算法106.最優(yōu)策略求解中,回溯算法常用于解決()問題。107.ModelArts預(yù)置模型的本質(zhì)是()。108.在多媒體應(yīng)用中,音頻信號(hào)處理常用于()。A、圖像分析B、語音識(shí)別109.大部分?jǐn)?shù)據(jù)文件以()格式存儲(chǔ)。B、八進(jìn)制C、十進(jìn)制110.()公民、法人或者非法人單位的作品,不論是否發(fā)表,依照《中華人民共C、法國(guó)D、德國(guó)111.以下哪種神經(jīng)網(wǎng)絡(luò)解決了網(wǎng)絡(luò)退化問題?()A、CNN112.TensorFlow2.0不支持以下哪個(gè)運(yùn)算符()。114.團(tuán)結(jié)協(xié)作在解決復(fù)雜問題時(shí)的作用類似于()。115.通常使用以下哪個(gè)模型對(duì)強(qiáng)化學(xué)習(xí)問題建模?()B、高斯混合模型116.計(jì)算機(jī)病毒具有()特點(diǎn),通常是指在其它正常程序或數(shù)據(jù)中寄生。A、隱蔽性C、可觸發(fā)性D、傳染性117.算法的特點(diǎn)通常包括()。118.最優(yōu)策略求解中,貪婪算法的特點(diǎn)是()。119.循環(huán)神經(jīng)網(wǎng)絡(luò)中的隱藏層具有記憶功能,可以()過去的信息。A、重構(gòu)B、保留特點(diǎn)體現(xiàn)了CNN哪方面的核心思想()。A、局部感知121.GAN屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。C、循環(huán)神經(jīng)網(wǎng)絡(luò)122.分布式文件系統(tǒng)有相應(yīng)的容錯(cuò)機(jī)制,這表現(xiàn)了系統(tǒng)的()。123.()在下列節(jié)日期間應(yīng)當(dāng)依法安排勞動(dòng)者休假。124.下面在神經(jīng)網(wǎng)絡(luò)中引入了非線性的是()。125.字詞的重要性隨著它在文件出現(xiàn)的次數(shù)()。B、正比增加126.單鏈表中,我們對(duì)于每個(gè)節(jié)點(diǎn)除了需要定義數(shù)據(jù)之外還必須定義()。127.在AI服務(wù)中,語音識(shí)別的主要應(yīng)用場(chǎng)景包括()。A、語音助手128.優(yōu)化器的選擇對(duì)模型的訓(xùn)練過程和結(jié)果有著重要的()。129.Iinux中head操作默認(rèn)顯示()行。130.MindSpore框架支持的硬件加速是()。C、普通遷移131.()下列哪一項(xiàng)是在數(shù)據(jù)庫(kù)選取硬件配置時(shí)不是主要的考慮因素。B、日常訪問用戶數(shù)量C、高峰期每個(gè)用戶的訪問頻率D、系統(tǒng)冗余比例132.昇騰芯片硬件架構(gòu)的性能特點(diǎn)使其適用于()。B、云計(jì)算C、嵌入式系統(tǒng)133.將人的推理能力和智力不斷向人工智能系統(tǒng)遷移和放大,這是一個(gè)()的過134.文本情感分類是()對(duì)于文本中表達(dá)的情感進(jìn)行分類的計(jì)算。A、計(jì)算機(jī)135.計(jì)算機(jī)病毒的自我復(fù)制是指()。136.在圖像識(shí)別流程設(shè)計(jì)中,什么是數(shù)據(jù)預(yù)處理的作用?()137.關(guān)于孤立詞識(shí)別說法錯(cuò)誤的是()。D、孤立詞識(shí)別常用的算法是HMM-GMM138.在Tensorflow2.0中,用于保存整個(gè)模型的函數(shù)是()。139.自主無人系統(tǒng)的()是一種智能控制器。A、風(fēng)扇C、內(nèi)存140.正則化在深度學(xué)習(xí)中的主要目的是()。B、減小模型容量D、加速訓(xùn)練過程141.中文分詞主要針對(duì)()。D、中文142.在強(qiáng)化學(xué)習(xí)中,貝爾曼方程用于()。A、衡量動(dòng)作的價(jià)值A(chǔ)、人臉識(shí)別C、自然語言處理B、適應(yīng)C、泛化145.()是基于自然選擇理論的宏啟發(fā)式算法。146.昇騰芯片軟件架構(gòu)的設(shè)計(jì)理念注重()。D、所有以上147.以下選項(xiàng)不屬于華為云EI自然語言處理服務(wù)提供的意圖理解API所支持的領(lǐng)域的是()。148.關(guān)于詞向量用One-hot編碼方式的描述,不正確的是()。149.文件的操作類別中,復(fù)制文件屬于()。150.在隱馬爾科夫問題中,通過觀測(cè)數(shù)據(jù)推斷模型參數(shù)的問題屬于()問題。151.()是受生物免疫系統(tǒng)啟發(fā)而推出的智能搜索算法。152.機(jī)器學(xué)習(xí)中的樸素貝葉斯算法主要用于()。C、聚類D、強(qiáng)化學(xué)習(xí)153.下列屬于正則化的有()。A、dropout154.機(jī)器學(xué)習(xí)中的決策樹算法可用于()。D、降維155.()是指發(fā)現(xiàn)并糾正數(shù)據(jù)文件中可識(shí)別的錯(cuò)誤的一道程序。A、刪除156.文件的操作類別中,查找文件屬于()。157.以下算法不可以用于文本分類的是()。158.在深度學(xué)習(xí)中,激活函數(shù)用于()。159.深度學(xué)習(xí)開發(fā)中,常用的優(yōu)化器包括()。A、SGD160.文件的操作應(yīng)用中,重命名文件通常用于()。A、創(chuàng)建新文件D、刪除文件161.以下不屬于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的是()。A、CNN162.以下哪個(gè)任務(wù)屬于多媒體應(yīng)用中的圖像處理?()A、語音合成B、圖像分割163.循環(huán)神經(jīng)網(wǎng)絡(luò)中的時(shí)間步表示模型對(duì)輸入數(shù)據(jù)的()。A、順序關(guān)系164.下列是Linux系統(tǒng)的優(yōu)點(diǎn)的是()。165.MindSpore框架中的計(jì)算圖構(gòu)建方式是()。166.以下()是降維算法。A、PCA167.服務(wù)器進(jìn)行軟件升級(jí)時(shí)應(yīng)該()。168.ModelArts自動(dòng)學(xué)習(xí)服務(wù)可以使用戶零代碼實(shí)現(xiàn)的不包含以下哪一項(xiàng)()。A、數(shù)據(jù)標(biāo)注169.基于區(qū)域建議的算法,也被歸納為Two-S-Stage算法的是()。170.()是一種近似逼近的方法,屬于基于序列模型優(yōu)化的算法。A、界面優(yōu)化B、顯示優(yōu)化171.數(shù)據(jù)分類的基本原則不包括()。A、穩(wěn)定性D、隨機(jī)性172.GRU屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、生成對(duì)抗網(wǎng)絡(luò)173.專家系統(tǒng)的知識(shí)表示通常采用()。C、人工規(guī)則174.下列關(guān)于表格型數(shù)據(jù)處理說法不正確的是()。175.以下不屬于系統(tǒng)維護(hù)內(nèi)容的是()。176.以下不屬于語音信號(hào)特征提取的方法的是()。A、LPC177.詞頻統(tǒng)計(jì)可以統(tǒng)計(jì)單詞的次數(shù)和()。A、詞性178.()以下哪個(gè)操作屬于數(shù)據(jù)增強(qiáng)?A、數(shù)據(jù)標(biāo)準(zhǔn)化179.Iinux中rmdir是()操作。A、顯示文件最后幾行內(nèi)容D、查詢180.數(shù)據(jù)處理中的異常值處理常采用的方法是()。B、用中位數(shù)替代異常值C、使用均值平滑異常值181.模型中的參數(shù)調(diào)優(yōu)通常使用的方法是()。C、數(shù)據(jù)標(biāo)準(zhǔn)化182.下面是機(jī)器學(xué)習(xí)的應(yīng)用領(lǐng)域的是()。183.Iinux中cd是什么操作。()B、切換目錄184.下列哪個(gè)工具不屬于文本處理工具()。D、畫圖185.深度學(xué)習(xí)中的權(quán)重共享是指()。186.以下不屬于常用容災(zāi)技術(shù)中網(wǎng)絡(luò)層鏡像的優(yōu)點(diǎn)的是()。187.可以通過()清洗網(wǎng)頁數(shù)據(jù),匹配有效的數(shù)據(jù)。A、正則表達(dá)式188.下面是結(jié)巴分詞的功能的是()。C、詞性標(biāo)注189.根據(jù)數(shù)據(jù)標(biāo)注對(duì)象不同,可以分為文本標(biāo)注、語言標(biāo)注、()標(biāo)注和視頻標(biāo)C、地點(diǎn)D、工程師需要進(jìn)行()。B、日志管理191.分類算法預(yù)測(cè)的標(biāo)簽是()。C、自變型192.隱馬爾科夫鏈解碼問題常常使用的算法是()。B、前向算法子集上的連續(xù)函數(shù)。這個(gè)定理是()。下對(duì)這三個(gè)庫(kù)不正確的說明是()。B、Matplotlib支持多種數(shù)據(jù)展示,使用Pyplot子庫(kù)即可195.算法分類的應(yīng)用可以幫助選擇適用于不同任務(wù)的()。196.數(shù)據(jù)處理是數(shù)據(jù)挖掘之前必不可少的()。A、最終目的197.以下哪個(gè)是用于回歸問題的常見損失函數(shù)()?198.()需要對(duì)文本內(nèi)容進(jìn)行文字識(shí)別和標(biāo)注。199.主成分分析屬于()。B、半監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、無監(jiān)督學(xué)習(xí)200.Iinux中In是什么操作。()B、切換目錄201.關(guān)于智能體的策略描述正確的是()。202.將word文檔轉(zhuǎn)換成pdf格式可能會(huì)出現(xiàn)()問題。B、段落分明203.小批量梯度下降中的小批量體現(xiàn)在()。204.下面哪些數(shù)據(jù)可以需要進(jìn)行處理()。205.以下哪個(gè)選項(xiàng)不屬于自然語言處理技術(shù)的三個(gè)層面?()206.下列關(guān)于Word2vec的說法不正確的是()。207.根據(jù)數(shù)據(jù)標(biāo)注()不同,可以分為文本標(biāo)注、語言標(biāo)注、圖像標(biāo)注和視頻標(biāo)B、地點(diǎn)208.Atlas人工智能計(jì)算平臺(tái)主要用于()。B、圖像識(shí)別C、語音識(shí)別209.以下不屬于邏輯服務(wù)器的是()。210.Sigmoid激活函數(shù)的輸出范圍是()。211.以下不屬于模型的超參數(shù)的是()。B、神經(jīng)網(wǎng)絡(luò)的權(quán)重212.文本情感分析研究涵蓋了包括自然語言處理、()挖掘、信息檢索、信息抽213.以下哪項(xiàng)是數(shù)據(jù)交付的步驟()。214.()是分析網(wǎng)頁數(shù)據(jù)之前的重要步驟。215.下面關(guān)于Series和DataFrame的理解,哪個(gè)是不正確的?()216.()標(biāo)注需要對(duì)文本內(nèi)容進(jìn)行文字識(shí)別和標(biāo)注。217.統(tǒng)計(jì)一個(gè)詞在不同文件中的出現(xiàn)次數(shù)的變化趨勢(shì)可以用()展示。A、箱線圖B、草圖C、餅圖D、折線圖218.在數(shù)據(jù)處理中,One-Hot編碼常用于處理()。219.Iinux中tail操作默認(rèn)顯示()行。220.要搜索“口味蝦的做法”,可以用()。D、以上都不是222.計(jì)算機(jī)病毒的防范措施包括()。223.數(shù)據(jù)采集和()行業(yè)的鏈條長(zhǎng)。B、清洗D、收集224.()語音類型的數(shù)據(jù)結(jié)果包含哪些內(nèi)容?D、圖片225.AI服務(wù)中的自然語言處理任務(wù)涵蓋了哪些方面?()C、語音識(shí)別226.分布式存儲(chǔ)的特點(diǎn)不包括()。A、可擴(kuò)展B、高性能D、高成本227.ModelArts訓(xùn)練作業(yè)支持用戶自定義算法,用戶的代碼()上傳。228.線性回歸模型的預(yù)測(cè)結(jié)果是()。C、連續(xù)值D、類別概率229.常用的數(shù)據(jù)類型是()。A、數(shù)值型230.以下關(guān)于sklearn說法錯(cuò)誤的是()。B、sklearn中包含了大量的優(yōu)質(zhì)的數(shù)據(jù)集,在你學(xué)習(xí)機(jī)器學(xué)習(xí)的過程中,C、sklearn提供多種數(shù)據(jù)預(yù)處理方法231.以下不屬于隱馬爾科夫模型的三大問題的是()。232.模型的有效性評(píng)估可以包括對(duì)其在不同數(shù)據(jù)集上的()。234.專家系統(tǒng)的推理引擎負(fù)責(zé)()。235.ID3算法選擇()作為屬性選擇標(biāo)準(zhǔn)。C、基尼系數(shù)236.計(jì)算機(jī)存儲(chǔ)單位中,1KB等于多少字節(jié)()?237.下面屬于數(shù)據(jù)清洗的是()。238.損失函數(shù)在神經(jīng)網(wǎng)絡(luò)中的重要性主要體現(xiàn)在()。239.多層次智能不包括()。240.下列哪一個(gè)是家用智能設(shè)備()。C、電吹風(fēng)241.集成學(xué)習(xí)中的Bagging方法主要用于()。D、參數(shù)優(yōu)化242.機(jī)器學(xué)習(xí)算法中,以下不屬于集成學(xué)習(xí)策略的是()。243.下面是python的數(shù)據(jù)類型的是()。244.()需要想數(shù)據(jù)標(biāo)注公司明確表達(dá)自己的需求?;蛘叽嬖趩栴},應(yīng)()。C、及時(shí)上報(bào)D、虛假上報(bào)246.計(jì)算機(jī)存儲(chǔ)單位中,硬盤容量一般以()表示。A、GB247.MindSpore框架的開發(fā)環(huán)境可以支持()。248.定類等級(jí)的數(shù)據(jù)只按()分類。A、數(shù)據(jù)大小B、文件大小C、句子長(zhǎng)度D、類別名稱249.在算法的特點(diǎn)中,高效率通常指的是算法在()方面的表現(xiàn)。250.以下選項(xiàng)不屬于語音聲學(xué)特征的是()。251.圖像分類網(wǎng)絡(luò)中常用的網(wǎng)絡(luò)不包括()。252.語音識(shí)別的難點(diǎn)是()。253.計(jì)算機(jī)存儲(chǔ)單位中,最小的存儲(chǔ)單元是()。254.將數(shù)據(jù)分散存儲(chǔ)在多臺(tái)獨(dú)立的設(shè)備上屬于()。255.用戶通過ModelArts的AI市場(chǎng)分享的內(nèi)容不包括()。256.需求公司是數(shù)據(jù)標(biāo)注規(guī)則的()。257.運(yùn)用()方法最大限度地減少對(duì)用戶反饋信息的詢問次數(shù)。D、簡(jiǎn)單學(xué)習(xí)258.LSTM屬于以下哪種神經(jīng)網(wǎng)絡(luò)()。C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、生成對(duì)抗網(wǎng)絡(luò)259.在計(jì)算機(jī)硬件技術(shù)指標(biāo)中,度量存儲(chǔ)空間大小的基本單位是()。A、字260.()是指數(shù)據(jù)記錄的信息是否存在異常或錯(cuò)誤。261.卷積神經(jīng)網(wǎng)絡(luò)(ConvolutionalNeuralNetwork,CNN)包括卷積層,()和全262.下列說法中,符合雇員交流時(shí)語言規(guī)范的是()。A、多說俏皮話C、充滿幽默感D、用尊稱,不用忌語263.ModelArts數(shù)據(jù)管理中的數(shù)據(jù)集來源不包括()。264.()指的是個(gè)節(jié)點(diǎn)上的數(shù)據(jù)由本地?cái)?shù)據(jù)庫(kù)管理系統(tǒng)自治管理。265.在循環(huán)神經(jīng)網(wǎng)絡(luò)中,長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)是一種用于解決()問題的結(jié)構(gòu)。A、圖像處理B、自然語言處理C、語音識(shí)別D、所有以上266.Tensorflow2.0中用于模型訓(xùn)練的主要循環(huán)函數(shù)是()。267.神經(jīng)網(wǎng)絡(luò)中的反向傳播算法用于()。A、訓(xùn)練模型268.Atlas人工智能計(jì)算平臺(tái)提供的計(jì)算資源主要用于()。B、自然語言處理269.數(shù)據(jù)合并的目的是()。C、強(qiáng)化學(xué)習(xí)271.模型中的學(xué)習(xí)率是用于()。A、控制模型復(fù)雜度B、加速訓(xùn)練過程272.查看文件內(nèi)容的命令不包括()。A、catensorFlow的執(zhí)行模式轉(zhuǎn)換成圖執(zhí)行模式?()274.下列不屬于智能系統(tǒng)業(yè)務(wù)的是()。276.循環(huán)神經(jīng)網(wǎng)絡(luò)中的短時(shí)記憶效應(yīng)有助于處理數(shù)據(jù)中的()關(guān)系。A、長(zhǎng)期B、時(shí)序D、時(shí)域277.在數(shù)據(jù)處理中,缺失值處理常采用的方法是()。C、識(shí)別B、數(shù)據(jù)查詢280.在強(qiáng)化學(xué)習(xí)中,環(huán)境模型的作用是()。A、衡量動(dòng)作的價(jià)值C、限制智能體的行為D、提供獎(jiǎng)勵(lì)信號(hào)281.在神經(jīng)網(wǎng)絡(luò)中,隱藏層的目的是()。A、直接與輸入層交互C、輸出預(yù)測(cè)結(jié)果282.分布式存儲(chǔ)的特點(diǎn)主要包括()。D、中心化管理283.數(shù)據(jù)分布自適應(yīng)是一類最常用的()方法。A、單位C、元素285.CNN用參數(shù)相同的kernel去掃描整副圖像。實(shí)現(xiàn)了同一圖像在不同位置、特點(diǎn)體現(xiàn)了CNN哪方面的核心思想?()A、局部感知C、尺度不變286.下面關(guān)于數(shù)字圖像量化等級(jí)的描述,錯(cuò)誤的是()。A、量化等級(jí)越高,圖像層次越豐富B、量化等級(jí)越高,圖像灰度分辨率越低C、量化等級(jí)越高,圖像質(zhì)量越好D、量化等級(jí)越高,圖像數(shù)據(jù)量越大287.團(tuán)結(jié)協(xié)作可以幫助團(tuán)隊(duì)更好地()。288.優(yōu)化器的學(xué)習(xí)率設(shè)置對(duì)訓(xùn)練過程中的()具有重要影響。E、停止條件A、語音識(shí)別B、圖像識(shí)別E、遙感衛(wèi)星圖像分析A、L1正則化B、L2正則化D、動(dòng)量?jī)?yōu)化器4.發(fā)展出圖像識(shí)別成功率超越人類的人工智能的主要因素有A、計(jì)算力的提升5.以下關(guān)于模型中參數(shù)與超參數(shù)的描述中,哪些選項(xiàng)是正確的?A、批量刪除7.以下關(guān)于Relu激活函數(shù)缺點(diǎn)的描述,正確的是哪些項(xiàng)?C、在0處不可導(dǎo),強(qiáng)行定義了導(dǎo)數(shù)D、無上界,訓(xùn)煉相對(duì)發(fā)散E、ReLU激活函數(shù)無法改善梯度消失問題B、人工智能10.在隨機(jī)森林中,最終的集成模型是通過過什么策略決定模型結(jié)果的?A、累加制D、累乘制E、累除制D、圖像識(shí)別C、回測(cè)驗(yàn)證D、執(zhí)行交易E、穿越時(shí)空A、初始化編碼B、適應(yīng)度函數(shù)A、隨機(jī)樣度下降的不穩(wěn)定性可以幫助模型在收斂中跳過一些局部極值點(diǎn)B、小批量梯度下降相比于隨機(jī)梯度下降更容易受到噪聲數(shù)據(jù)的影響C、隨機(jī)梯度下降的一種實(shí)現(xiàn)是在線學(xué)習(xí)(OnlineLearning),它根據(jù)每一個(gè)樣D、小批量梯度下降的思想是每次使用一小批固定尺寸(BatchSize)的樣例來更E、隨機(jī)梯度下降每次迭代都會(huì)計(jì)算整個(gè)數(shù)據(jù)集的梯度D、可以看清題型的(題型屬性+噪聲),能看到的題號(hào)、作答區(qū),插圖都要框起來E、不做處理B、方言眾多D、數(shù)據(jù)量不夠A、標(biāo)準(zhǔn)的循環(huán)神經(jīng)網(wǎng)路存在褲度爆炸和棉度消失問題。B、標(biāo)準(zhǔn)RNN結(jié)構(gòu)解決了信息記憶的問題但是對(duì)長(zhǎng)時(shí)間記憶的信息會(huì)衰減C、度消失梯度爆炸都與路徑長(zhǎng)度太長(zhǎng)有關(guān),前面的權(quán)重都基本固定不變沒有訓(xùn)練效果D、標(biāo)準(zhǔn)RNN是一種死板的邏,越晚的輸入影響越大越早的輸入影響越小,且無E、標(biāo)準(zhǔn)RNN不會(huì)遇到任何梯度問題19.下面有關(guān)Al應(yīng)用領(lǐng)域的描述正確的有哪些選項(xiàng)?A、智慧醫(yī)療運(yùn)用了計(jì)算機(jī)視覺數(shù)據(jù)控掘等Al技術(shù)E、人臉識(shí)別運(yùn)用了自然語言處理技術(shù)C、機(jī)器翻譯A、能否保證人工智能的應(yīng)用開發(fā)被用于正確的目標(biāo)C、人工智能的強(qiáng)大能力產(chǎn)生的負(fù)面效果可能是緩慢而大規(guī)模的D、人工智能設(shè)計(jì)者在制作機(jī)器人時(shí),會(huì)將自己的想法加入到機(jī)器人的思維系統(tǒng)中B、交通燈識(shí)別D、汽車識(shí)別E、標(biāo)志牌識(shí)別23.人工智能歷經(jīng)兩波浪潮,此次人工智能風(fēng)潮再度崛起是因?yàn)?)A、直接購(gòu)買或共享行業(yè)數(shù)據(jù)C、自行采集A、InceptionB、卷積運(yùn)算的目的是提取輸入的不同特征,第一層卷積層可能只能提取一征C、全連接層把所有局部特征結(jié)合變成全局特征用來計(jì)算最后每一類30.下面哪些用卷積神經(jīng)網(wǎng)絡(luò)處理效果比較好A、人臉識(shí)別C、自然語言處理E、圖像分類31.以下關(guān)于ReLU激活函數(shù)優(yōu)點(diǎn)的描述,正確的是哪些項(xiàng)?C、輯出有界訓(xùn)練不易發(fā)散E、ReLU函數(shù)可以確保所有神經(jīng)元輸出始終32.以下關(guān)于小批量梯度下降算法描述中,正確的是哪幾項(xiàng)?的梯度下降算法B、MBGD每次使用一個(gè)批次的樣本進(jìn)行更新,因此速度也非常慢在實(shí)際場(chǎng)景中不被接受C、MBGD每次使用小批固定尺寸的樣例來更新權(quán)值D、MBGD中的BatchSize是一個(gè)超參數(shù),可由人為設(shè)定33.處理實(shí)際問題時(shí)以下什么情況下該使用機(jī)器學(xué)習(xí)?A、數(shù)據(jù)分布本身隨時(shí)間變化,需要程序不停的重新適應(yīng),比如預(yù)測(cè)商品銷售的B、規(guī)則復(fù)雜程度低且問題的規(guī)模較小的問題C、任務(wù)的規(guī)則會(huì)隨時(shí)間的改變,比如生產(chǎn)線上的瑕疵檢測(cè)D、規(guī)則十分復(fù)雜或者無法描述,比如人臉識(shí)別和語音識(shí)別34.以下關(guān)于解決問題方法的描述中,哪些選項(xiàng)是正確的?A、人工規(guī)則適用于解決問題規(guī)模小,規(guī)則復(fù)雜度高的問題A、圖像識(shí)別36.以下屬于Tensorflow2.0的特性的是?C、繼續(xù)兼容tensorflow1,X的相關(guān)模塊37.以下哪些選項(xiàng)可以創(chuàng)建全零常量Tensor?A、智能制造B、智能產(chǎn)品A、輔助病例診斷C、基因檢測(cè)報(bào)告生成D、實(shí)體查詢A、機(jī)器學(xué)習(xí)技術(shù)B、計(jì)算實(shí)施技術(shù)C、語音識(shí)別技術(shù)E、壓力感應(yīng)41.常見的臟數(shù)據(jù)的類型有哪些?A、格式錯(cuò)誤的值B、重復(fù)值D、缺失值42.神經(jīng)網(wǎng)絡(luò)起源很早,但真正被大規(guī)模商用還是在本世紀(jì),你覺得阻礙神經(jīng)網(wǎng)絡(luò)在上世紀(jì)發(fā)展的主要原因是什么C、計(jì)算能力跟不上下列哪些選項(xiàng)是正確的?A、更安全的數(shù)據(jù)共享是Al技術(shù)更好的發(fā)展基石之一B、消除數(shù)據(jù)孤島現(xiàn)象是對(duì)AI技術(shù)拓展很重要C、數(shù)據(jù)質(zhì)量對(duì)AI的發(fā)展沒那么重要,保證數(shù)據(jù)量龐大就夠了D、數(shù)據(jù)消除壁壘對(duì)AI技術(shù)發(fā)展很重要E、數(shù)據(jù)不需要標(biāo)準(zhǔn)化處理也能直接用于所有Al模型44.以下關(guān)于GPU特征的描述,正確的是哪些選項(xiàng)?A、大量緩存降低時(shí)延基于大吞葉量設(shè)計(jì)痘長(zhǎng)邏輯控制C、擅長(zhǎng)邏輯控制D、擅長(zhǎng)計(jì)算密集和易于并行的程序E、GPU在執(zhí)行串行任務(wù)時(shí)效率高于CPUA、語音交互C、體感交互D、腦機(jī)交互A、達(dá)到一定的迭代次數(shù)B、適應(yīng)度函數(shù)達(dá)到一定的要求A、CNNA、音頻事件檢測(cè)B、聲紋識(shí)別C、語音識(shí)別E、語音合成49.softmax函數(shù)在分類任務(wù)中經(jīng)常被使用,下列關(guān)于softmax函數(shù)的描述,哪些選項(xiàng)是正確的A、是二分函數(shù)sigmoid的推廣B、somftmax函數(shù)又稱作歸一化指數(shù)函數(shù)C、softmax回歸模型是解決二分類回歸問題的算法D、softmax函數(shù)經(jīng)常與交叉嫡損失函數(shù)聯(lián)合使用E、softmax不能改善準(zhǔn)確性50.有大量銷售數(shù)據(jù),但沒有標(biāo)簽的的情況下,企業(yè)想甄別出VIP客戶,以下模型中合適的有?A、邏輯回歸51.選擇下列哪些是人工智能的研究領(lǐng)域A、人臉識(shí)別D、分布式計(jì)算E、語音識(shí)別52.“噪聲”是指測(cè)量變量中的隨機(jī)錯(cuò)誤或偏差,噪聲數(shù)據(jù)的主要表現(xiàn)形式有哪些?E、正確無誤的數(shù)據(jù)A、智能家居B、智能會(huì)議C、智能客服D、智能車載E、智能聊天B、微信語音輸入C、百度地圖A、定位誤差小C、不需要人類醫(yī)生進(jìn)行操作D、能夠?qū)崟r(shí)監(jiān)控患者的情況57.模型評(píng)估與選擇的評(píng)估方法有()。C、自助法A、可以存儲(chǔ)許多相關(guān)(激勵(lì),響應(yīng))模式對(duì)B、以分布、穩(wěn)健的方式存儲(chǔ)信息D、可在原存儲(chǔ)中加入新的存儲(chǔ)模式uate方法評(píng)估模型時(shí),會(huì)輸出以下哪些指標(biāo)60.從機(jī)器學(xué)習(xí)預(yù)測(cè)目標(biāo)數(shù)據(jù)的離散程度,可以將機(jī)器學(xué)習(xí)分類哪兩類問題?C、識(shí)別問題D、判定問題成D、LSTM有兩種門用來保持和控制細(xì)胞狀態(tài):遺忘門和輸入門E、LSTM模型可以改善RNN的梯度消失問題A、人工智能旨在創(chuàng)造智能機(jī)器該題無法得分B、人工智能是研究和構(gòu)建在給定環(huán)境下表現(xiàn)良好的智能體程序該題無C、人工智能將其定義為人類智能體的研究該題無D、人工智能是為了開發(fā)一類計(jì)算機(jī)使之能夠完成通常由人類所能做的事該題無E、人工智能等同于自動(dòng)化操作63.下列屬于感知智能的相關(guān)技術(shù)有哪幾項(xiàng)B、圖像識(shí)別C、語言識(shí)別D、指紋識(shí)別E、距離識(shí)別64.機(jī)器智能種類包括A、機(jī)器動(dòng)作智能B、機(jī)器行為智能D、機(jī)器語言智能E、心靈感應(yīng)65.知識(shí)圖譜在現(xiàn)代搜索引擎中有廣泛應(yīng)用,下面哪些可能是屬于知識(shí)圖譜構(gòu)建過程中包含的內(nèi)容?A、實(shí)體及關(guān)系抽取B、實(shí)體屬性抽取C、半結(jié)構(gòu)化信息抽取D、結(jié)構(gòu)化數(shù)據(jù)融合E、音頻轉(zhuǎn)換66.不屬于開區(qū)域標(biāo)注的是A、曲線標(biāo)注B、多邊形標(biāo)注C、框標(biāo)注D、線標(biāo)注E、點(diǎn)標(biāo)注67.以下哪些選項(xiàng)是人工智能深度學(xué)習(xí)學(xué)習(xí)框架?A、語音識(shí)別B、語音合成D、語音分離E、說話人識(shí)別69.參加達(dá)特茅斯會(huì)議的學(xué)者有哪些B、曼卡錫E、圖靈C、智能芯片71.下列哪種方法可以用來減小過擬合?()A、更多的訓(xùn)練數(shù)據(jù)B、L1正則化C、L2正則化D、減小模型的復(fù)雜度B、高偏差+低方差,可能造成欠擬合C、低偏差+高方差可能造成欠擬合D、高偏差+高方差模型可以視為不良模型A、表達(dá)/優(yōu)化/運(yùn)行解:實(shí)現(xiàn)多前端跨芯片,跨平臺(tái)E、MindSpore只支持特定類型的神經(jīng)網(wǎng)絡(luò)架構(gòu),限制了模型多樣性74.無人超市采用了()等多種智能技術(shù),消費(fèi)者在購(gòu)物流程中將依次體驗(yàn)自動(dòng)A、計(jì)算機(jī)視覺B、傳感器定位E、智能語音75.語音編碼格式是指按一定格式壓縮采樣和量化后的數(shù)值,從而降低音頻的數(shù)76.屬于閉區(qū)域標(biāo)注的有A、批量刪除D、隨機(jī)欠采樣E、將所有數(shù)據(jù)放大78.以下哪些屬于Al訓(xùn)練和推理框架?79.考察聚類內(nèi)的特征指標(biāo)有()A、SSBB、聚類半徑B、全自動(dòng)化標(biāo)注C、半自動(dòng)化標(biāo)注D、人工智能標(biāo)注E、全自動(dòng)標(biāo)注81.在進(jìn)行圖像任務(wù)處理過程中,往往會(huì)對(duì)圖片進(jìn)行歸一化操作,下面有關(guān)歸一化的描述,哪些選項(xiàng)是正確的?B、數(shù)據(jù)歸一化的主要目的是為了把不同來源的數(shù)據(jù)統(tǒng)一到同一數(shù)量級(jí)C、標(biāo)準(zhǔn)差歸一化是一種常用的歸一化方法E、歸一化總是會(huì)降低模型的泛化能力82.Tensorflow2.0中可以用來查看是否是tensor的方法有?83.下列屬于深度神經(jīng)網(wǎng)絡(luò)模型的是84.以下那些項(xiàng)屬于生成對(duì)抗訓(xùn)練中的問題?A、不穩(wěn)定性85.關(guān)于自然語言處理正確的是A、目前最先進(jìn)的自然語言處理技術(shù)是基于深度學(xué)習(xí)模型的B、自然語言處理技術(shù)達(dá)到人類智能的標(biāo)準(zhǔn)是通過圖靈測(cè)試86.序列標(biāo)注包括C、語塊分析E、實(shí)體識(shí)別87.數(shù)據(jù)預(yù)處理是一種數(shù)據(jù)挖掘技術(shù),包括A、數(shù)據(jù)清洗C、數(shù)據(jù)歸約D、數(shù)據(jù)標(biāo)注88.下列屬于機(jī)器學(xué)習(xí)類型的是D、強(qiáng)化學(xué)習(xí)B、提前停止訓(xùn)練90.下列對(duì)人工智能芯片的表述,正確的是()C、相對(duì)于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計(jì)算性能D、目前處于成熟高速發(fā)展階段B、使用try語句可以捕捉異常C、用戶可以自定義異常B、只能處理簡(jiǎn)單句C、基于已有的既成案例E、無需電力支持93.人工智能的研究范疇廣泛且復(fù)雜,其發(fā)展需要與()和社會(huì)科學(xué)等學(xué)科深度融合A、計(jì)算機(jī)科學(xué)E、微電子科學(xué)94.以下關(guān)于線性回歸與防止過擬合的描述中,哪些選項(xiàng)是正確的?A、線性回歸權(quán)重系數(shù)在樣本空間中不能過大/過小,可以在目標(biāo)函數(shù)之上增加一個(gè)平方和損失B、當(dāng)使用的正則項(xiàng)是12—norm,使用這個(gè)損失函數(shù)的現(xiàn)象回歸也叫LASSO回歸C、正則項(xiàng)有助于減少過擬合D、追加了絕對(duì)值損失的線性回歸叫做Ridge回歸E、使用非線性轉(zhuǎn)換可以完全避免過擬合現(xiàn)象A、數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是面向主題的B、數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是集成的C、數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是穩(wěn)定的D、數(shù)據(jù)倉(cāng)庫(kù)的數(shù)據(jù)是隨時(shí)間不斷變化的E、模型合并B、線性回歸C、隨機(jī)森林A、數(shù)據(jù)B、操作人員D、算力E、用戶體驗(yàn)99.在強(qiáng)化學(xué)習(xí)中,主體和環(huán)境之間交互的要素有A、狀態(tài)B、動(dòng)作D、強(qiáng)化E、情緒反饋100.下列陳述中哪些是描述強(qiáng)AI(通用AI)的正確答案?B、是經(jīng)過適當(dāng)編程的具有正確輸入和輸出的計(jì)算機(jī),因的頭腦D、其定義為無知覺的計(jì)算機(jī)智能,或?qū)W⒂谝粋€(gè)狹窄任務(wù)的AlC、量化A、訓(xùn)練D、推理正確的是A、該類不可以實(shí)例化B、該類可以實(shí)例化C、在pycharm工具中會(huì)出現(xiàn)語法錯(cuò)誤,說self沒有定義D、該類可以實(shí)例化,并且能正常通過對(duì)象調(diào)用showlnfo()E、showlnfo方法無需傳入self參數(shù)D、自下降損失函數(shù)E、自上升損失函數(shù)105.常見的圖像數(shù)據(jù)標(biāo)注有哪幾種類型A、矩形框標(biāo)注D、屬性標(biāo)注E、聲音標(biāo)簽106.下來哪些概

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論