人工智能模擬試題(附參考答案)_第1頁
人工智能模擬試題(附參考答案)_第2頁
人工智能模擬試題(附參考答案)_第3頁
人工智能模擬試題(附參考答案)_第4頁
人工智能模擬試題(附參考答案)_第5頁
已閱讀5頁,還剩28頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能模擬試題(附參考答案)一、單選題(共103題,每題1分,共103分)1.1x1卷積的主要作用是A、加快卷積運算B、增大卷積核C、擴(kuò)大感受野D、通道降維正確答案:D2.下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是A、同一層內(nèi)的神經(jīng)元相互不連接B、同一層內(nèi)神經(jīng)元之間存在全連接C、各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級D、層與層之間通過“全連接”進(jìn)行連接,即兩個相鄰層之間神經(jīng)元完全成對連接正確答案:B3.在人工神經(jīng)網(wǎng)絡(luò)算法中,不屬于實現(xiàn)“人工神經(jīng)元”的方法的有()。A、Sigmoid單元B、Untied單元C、感知器D、線性單元正確答案:B4.數(shù)據(jù)庫系統(tǒng)的核心是()A、軟件工具B、數(shù)據(jù)模型C、數(shù)據(jù)庫管理系統(tǒng)D、數(shù)據(jù)庫正確答案:C5.下列對人工智能芯片的表述,不正確的是()。A、一種專門用于處理人工智能應(yīng)用中大量計算任務(wù)的芯片B、能夠更好地適應(yīng)人工智能中大量矩陣運算C、目前處于成熟高速發(fā)展階段D、相對于傳統(tǒng)的CPU處理器,智能芯片具有很好的并行計算性能正確答案:C6.LSTM單元中引入了哪些門來更新當(dāng)前時刻的單元狀態(tài)向量?A、輸出門、任意門B、遺忘門、任意門C、任意門、輸入門D、輸入門、遺忘門正確答案:D7.某數(shù)據(jù)框df需要進(jìn)行多條件篩選,其一般性語法為A、df.loc[(篩選條件1)&&(篩選條件2)]B、df.loc[(篩選條件1)&(篩選條件2)]C、df.loc[(篩選條件1)and(篩選條件2)]D、df.loc[(篩選條件1)且(篩選條件2)]正確答案:B8.在數(shù)據(jù)預(yù)處理階段,我們常常對數(shù)值特征進(jìn)行歸一化或標(biāo)準(zhǔn)化(standardization,normalization)處理。這種處理方式理論上不會對下列哪個模型產(chǎn)生很大影響?()A、k-MeansB、k-NNC、決策樹正確答案:C9.下列不屬于人工智能學(xué)派的是A、行為主義B、連接主義C、符號主義D、機會主義正確答案:D10.為應(yīng)對卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲問題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG正確答案:C11.如果在大型數(shù)據(jù)集上訓(xùn)練決策樹。為了花費更少的時間來訓(xùn)練這個模型,下列哪種做法是正確的A、增加樹的深度B、增加學(xué)習(xí)率C、減少樹的數(shù)量D、減小樹的深度正確答案:D12.為了增強網(wǎng)絡(luò)的表達(dá)能力,我們需要()來將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、激活函數(shù)B、損失函數(shù)C、三角函數(shù)D、指數(shù)函數(shù)正確答案:A13.關(guān)于update語句和delete語句的使用需要注意的問題,下列說法正確的是()A、使用delete語句的時候需要注意把where字句寫上,如果沒有指定WHERE子句,MySQL表中的所有記錄將被刪除B、在iris表中刪除sepal_length等于6的記錄,寫法是“delete*fromiriswheresepal_length=6C、”D、更新數(shù)據(jù)的時候可以忽略更新數(shù)據(jù)的數(shù)據(jù)類型E、每一次使用update更新數(shù)據(jù)的時候,只可以更新一個字段正確答案:A14.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?()A、聚類B、分類C、自然語言處理D、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)正確答案:D15.感知機描述錯誤的是A、感知機能容易實現(xiàn)邏輯與、或、非運算B、輸出層是M-P神經(jīng)元C、感知機根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整D、輸入層接收外界輸入信號傳遞給輸出層正確答案:C16.python內(nèi)置函數(shù)isinstance的作用是A、判斷一個對象是否是一個已知的實例B、判斷一個對象是否是一個已知的變量C、判斷一個對象是否是一個已知的類型D、判斷一個對象是否是一個已知的函數(shù)正確答案:C17.已知x=3,那么執(zhí)行語句x*=6之后,x的值為_________。A、9B、18C、3D、$2正確答案:B18.不屬于噪聲數(shù)據(jù)表現(xiàn)形式的是()A、虛假數(shù)據(jù)B、錯誤數(shù)據(jù)C、重復(fù)數(shù)據(jù)D、異常數(shù)據(jù)正確答案:C19.使用rpm命令安裝軟件包時,所用的選項是()A、#REF!B、-eC、-iD、-U正確答案:C20.手寫數(shù)字識別的例子中,輸入的圖片為長和寬都是28像素的圖片,輸出判斷數(shù)字0-9的概率。要構(gòu)建前饋型神經(jīng)網(wǎng)絡(luò)去解決這個問題,輸入層是()維的,輸出層是()維的。A、$784B、10C、$28D、10E、1F、784正確答案:F21.如果我使用數(shù)據(jù)集的全部特征并且能夠達(dá)到100%的準(zhǔn)確率,但在測試集上僅能達(dá)到70%左右,這說明:()。A、過擬合B、欠擬合C、模型很棒正確答案:A22.下面哪條命令可以把f1.txt復(fù)制為f2.txt?()A、copyf1.txt|f2.txtB、cpf1.txt|f2.txtC、catf1.txt>f2.txtD、catf1.txt|f2.txt正確答案:C23.對比學(xué)習(xí)的核心訓(xùn)練信號是圖片的“()”。A、可移植性B、可預(yù)見性C、可區(qū)分性D、可推理性正確答案:C24.用搜索法對問題求解時,一個問題可以形式化地定義為四個組成部分,即:智能體的初始狀態(tài)、后繼函數(shù)、目標(biāo)測試和()A、路徑代價B、算法C、完備性D、功率正確答案:A25.統(tǒng)計描述的種類主要包括均值、百分位數(shù)、中位數(shù)、眾數(shù)、全距和方差等,()是指如果將一組數(shù)據(jù)從小到大排序,并計算相應(yīng)的累計百分位,則某一百分位所對應(yīng)數(shù)據(jù)的值A(chǔ)、均值B、百分位數(shù)C、中位數(shù)D、眾數(shù)正確答案:B26.Python異常處理中不會用到的關(guān)鍵字是A、elseB、ifC、tryD、finally正確答案:B27.池化操作的作用是:A、增加特征圖通道數(shù)B、下采樣C、paddingD、上采樣正確答案:B28.關(guān)于貝葉斯網(wǎng)的學(xué)習(xí)描述錯誤的為(___)A、估計出每個結(jié)點的條件概率;B、貝葉斯的學(xué)習(xí)過程為對訓(xùn)練樣本計數(shù);C、評分搜索為求解的常用辦法;D、網(wǎng)絡(luò)結(jié)構(gòu)為已知;正確答案:D29.以才哪種組合在CNN不常見A、conv+reluB、conv+relu+poolC、conv+relu+pool+fcD、conv+k-means正確答案:D30.用于終止某一進(jìn)程執(zhí)行的命令是()A、freeB、killC、stopD、end正確答案:B31.問答系統(tǒng)中的NLP技術(shù),以下描述不正確的是:A、問答(QA)系統(tǒng)的想法是直接從文檔、對話、在線搜索和其他地方提取信息,以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個文檔,而是更喜歡簡短而簡潔的答案。B、QA系統(tǒng)相對獨立很難與其他NLP系統(tǒng)結(jié)合使用,現(xiàn)有QA系統(tǒng)只能處理對文本文檔的搜索,尚且無法從圖片集合中提取信息。C、大多數(shù)NLP問題都可以被視為一個問題回答問題。范例很簡單:我們發(fā)出查詢指令,機器提供響應(yīng)。通過閱讀文檔或一組指令,智能系統(tǒng)應(yīng)該能夠回答各種各樣的問題。D、強大的深度學(xué)習(xí)架構(gòu)(稱為動態(tài)內(nèi)存網(wǎng)絡(luò)(DMN))已針對QA問題進(jìn)行了專門開發(fā)和優(yōu)化。給定輸入序列(知識)和問題的訓(xùn)練集,它可以形成情節(jié)記憶,并使用它們來產(chǎn)生相關(guān)答案。正確答案:B32.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸④.維數(shù)災(zāi)難A、①②④B、①②③C、①③④D、①③④正確答案:B33.感知機描述錯誤的是:(___)A、輸入層接收外界輸入信號傳遞給輸出層;B、輸出層是M-P神經(jīng)元;C、感知機根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;D、感知機能容易實現(xiàn)邏輯與、或、非運算;正確答案:C34.下屬模型是一階段網(wǎng)絡(luò)的是()A、fast-rcnnB、faster-rcnnC、rcnnD、YOLOv2正確答案:D35.新一代人工智能關(guān)鍵共性技術(shù)的研發(fā)部署要以()為核心,以數(shù)據(jù)和硬件為基礎(chǔ),以提升感知識別、知識計算、認(rèn)知推理、運動執(zhí)行、人機交互能力為重點A、算法B、云平臺C、算力D、軟件正確答案:A36.創(chuàng)建一個3x3并且值從0到8的矩陣A、np.arange(9).reshape(8)B、np.arange(8).reshape(8)C、np.arange(9).reshape(3,3)D、np.arange(9)正確答案:C37.Softmax算法中溫度趨近于0時Softmax將趨于(___)A、全探索B、僅利用C、僅探索D、全利用正確答案:B38.關(guān)于OLAP的特性,下面正確的是:()(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性A、(1)(2)(3)B、(2)(3)(4)C、(1)(2)(3)(4)D、(1)(2)(3)(4)(5)正確答案:D39.下列關(guān)于半樸素貝葉斯描述錯誤的為A、獨依賴估計為半樸素貝葉斯最常用的策略B、假設(shè)所以屬性都依賴于同一個屬性C、假設(shè)屬性之間部分相關(guān)D、假設(shè)屬性之間完全獨立正確答案:D40.A*搜索算法何時是最優(yōu)的?()A、到目標(biāo)結(jié)點的耗散是一個可采納啟發(fā)式B、到目標(biāo)結(jié)點的耗散可任意選擇C、不存在求解問題的最優(yōu)的a*搜索算法D、以上描述都不對正確答案:A41.()是指將“數(shù)據(jù)”轉(zhuǎn)換為“產(chǎn)品”的藝術(shù)。A、數(shù)據(jù)運用B、數(shù)據(jù)柔性C、數(shù)據(jù)開發(fā)D、數(shù)據(jù)挖掘正確答案:B42.通常池化操作的效果是:A、使圖片變成三角形B、使圖片變成圓形C、使圖片變小D、使圖片變大正確答案:C43.用于相似度度量的距離()要滿足距離度量的所有基本性質(zhì)A、一定B、不一定C、可能D、以上都不對正確答案:B44.如果矩陣A的形狀是m×n,矩陣B的形狀是n×p,已知C=AB,則矩陣C的形狀是()。A、p×mB、m×pC、m×nD、n×p正確答案:B45.拋擲一枚質(zhì)地均勻的硬幣,若拋擲95次都是正面朝上,則拋擲第100次正面朝上的概率是()A、小于1/2B、無法確定C、等于1/2D、大于1/2正確答案:C46.下列屬于特征降維的方法有A、主成分分析PCAB、數(shù)據(jù)采樣C、正則化D、最小二乘法正確答案:A47.卷積神經(jīng)網(wǎng)絡(luò)中的局部連接是指:在進(jìn)行圖像識別的時候,不需要對整個圖像進(jìn)行處理,只需要關(guān)注圖像中某些()的區(qū)域。A、一般B、特殊C、重點D、連續(xù)正確答案:B48.獨熱編碼的英文是:A、onehotB、onecoldC、twocoldD、twohot正確答案:A49.如果在進(jìn)行單元測試的時候發(fā)現(xiàn)錯誤,則針對該被發(fā)現(xiàn)的錯誤,可以判斷在整個軟件開發(fā)過程最可能出現(xiàn)錯誤的階段是()A、詳細(xì)設(shè)計B、單元測試C、概要設(shè)計D、需求分析正確答案:A50.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)B、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個版本C、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)正確答案:C51.在目標(biāo)檢測中,以下能產(chǎn)生候選框的算法是()a)SelectiveSearchb)ROIpoolingc)RegionproposallayerA、a)B、a)、c)C、b)、c)D、a)、b)正確答案:B52.下列極大似然估計描述錯誤的是(___)A、極大似然估計先假定其具有某種確定的概率分布形式;B、極大似然估計沒有確定的概率分布形式;C、概率模型的訓(xùn)練過程就是參數(shù)估計;D、貝葉斯學(xué)派認(rèn)為參數(shù)本身也有分布,是未觀察的隨機變量;正確答案:B53.下列哪項是自然語言處理的Python開發(fā)包?A、openCVB、jiebaC、sklearnD、XGBoost正確答案:B54.決策樹中不包含一下哪種結(jié)點()。A、內(nèi)部結(jié)點B、葉結(jié)點C、根結(jié)點D、外部結(jié)點正確答案:D55.產(chǎn)生式系統(tǒng)的推理不包括()A、雙向推理B、簡單推理C、逆向推理D、正向推理正確答案:B56.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、感知器D、全連接神經(jīng)網(wǎng)絡(luò)正確答案:A57.以下不屬于聚類算法的是()。A、K均值B、SANC、AprioriD、Jarvis-Patrik(JP)正確答案:C58.以下用C語言開發(fā)的Python解釋器是()A、JPythonB、IronPythonC、CPythonD、PyPy正確答案:C59.目前,多數(shù)NoSQL數(shù)據(jù)庫是針對特定應(yīng)用場景研發(fā)出來的,其設(shè)計遵循()原則,更加強調(diào)讀寫效率、數(shù)據(jù)容量以及系統(tǒng)可擴(kuò)展性。A、EASY原則B、READ原則C、BASE原則D、BASIC原則正確答案:C60.LSTM用于文本分類的任務(wù)中,不會出現(xiàn)的網(wǎng)絡(luò)層是()A、全連接B、詞嵌入層C、卷積層D、以上選項均不正確正確答案:C61.函數(shù)f(x)=2x^2-1在區(qū)間(1,1+Δx)上的平均變化率Δy/Δx等于()A、4+2ΔxB、4xC、4D、4+2(Δx)2正確答案:A62.Scikit-learn中數(shù)據(jù)和標(biāo)簽用什么數(shù)據(jù)結(jié)構(gòu)來存儲?A、數(shù)組B、字典C、列表正確答案:A63.下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性A、t-1時刻狀態(tài)取決于t+1時刻狀態(tài)B、t+2時刻狀態(tài)取決于t時刻狀態(tài)C、t+1時刻狀態(tài)和t時刻狀態(tài)相互獨立D、t+1時刻狀態(tài)取決于t時刻狀態(tài)正確答案:D64.據(jù)WardMO(2010)的研究,超過()的人腦功能用于視覺信息的處理,視覺信息的處理是人腦的最主要功能之一A、0.45B、0.55C、$0.75D、0.5正確答案:D65.關(guān)于貝葉斯網(wǎng)描述錯誤的是A、也稱為信念網(wǎng)B、用條件概率表來描述屬性的聯(lián)合概率分布C、借助有向無環(huán)圖刻畫屬性之間的關(guān)系D、借助無向無環(huán)圖刻畫屬性之間的關(guān)系正確答案:D66.在Linux系統(tǒng)中,telnet服務(wù)認(rèn)證是A、單向認(rèn)證B、第三方認(rèn)證C、智能卡認(rèn)證D、雙向認(rèn)證正確答案:A67.用于尋找出某個能夠達(dá)到給定目標(biāo)的動作序列或步驟的專家系統(tǒng)是()。A、診斷專家系統(tǒng)B、預(yù)測專家系統(tǒng)C、設(shè)計專家系統(tǒng)D、規(guī)劃專家系統(tǒng)正確答案:D68.關(guān)于模型參數(shù)(權(quán)重值)的描述,錯誤的說法是A、在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷減少B、每一次Epoch都會對之前的參數(shù)進(jìn)行調(diào)整,迭代次數(shù)越多,損失函數(shù)一般越小C、模型參數(shù)量越多越好,沒有固定的對應(yīng)規(guī)則D、訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)模型存儲于一定結(jié)構(gòu)的神經(jīng)元之間的權(quán)重和神經(jīng)元的偏置中正確答案:C69.梯度下降算法的正確步驟是什么?1.計算預(yù)測值和真實值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機值初始化權(quán)重和偏差5.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差A(yù)、3,2,1,5,4B、5,4,3,2,1C、4,3,1,5,2D、1,2,3,4,5正確答案:C70.下列不是知識表示法的是()A、狀態(tài)空間表示法B、“與/或”圖表示法C、產(chǎn)生式規(guī)則表示法D、計算機表示法正確答案:D71.下面對前饋神經(jīng)網(wǎng)絡(luò)這種深度學(xué)習(xí)方法描述不正確的是A、隱藏層數(shù)目大小對學(xué)習(xí)性能影響不大B、實現(xiàn)了非線性映射C、是一種端到端學(xué)習(xí)的方法D、是一種監(jiān)督學(xué)習(xí)的方法正確答案:A72.深度學(xué)習(xí)中神經(jīng)網(wǎng)絡(luò)類型很多,以下神經(jīng)網(wǎng)絡(luò)信息是單向傳播的是:A、GRUB、卷積神經(jīng)網(wǎng)絡(luò)C、循環(huán)神經(jīng)網(wǎng)絡(luò)D、LSTM正確答案:B73.表達(dá)式3|5的值為_____。A、3B、5C、7D、$1正確答案:C74.Mahout的核心是()算法及其實現(xiàn)。A、云計算B、機器學(xué)習(xí)C、數(shù)據(jù)挖掘D、人工智能正確答案:B75.影響基本K-均值算法的主要因素不包括下列哪一個選項?A、聚類準(zhǔn)則B、模式相似性測度C、樣本輸入順序D、初始類中心的選取正確答案:A76.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A、其他選項都不對B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變正確答案:C77.利用計算機來模擬人類的某些思維活動,如醫(yī)療診斷、定理證明等,這些應(yīng)用屬于A、模擬仿真B、人工智能C、數(shù)值計算D、自動控制正確答案:B78.下列關(guān)于python基本元素說法錯誤的是()A、python程序有時也稱腳本,是一系列定義和命令B、python解釋器有時也稱shell,用來求值定義并執(zhí)行命令C、若python對象屬于布爾類別(bool),那它也屬于非標(biāo)量對象D、float表示實數(shù),其字面量總是包括一個小數(shù)點,屬于標(biāo)量對象正確答案:C79.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的模型是()A、CNNB、RNNC、GRUD、LSTM正確答案:B80.()是一切AI模型的基礎(chǔ),完善數(shù)據(jù)的基礎(chǔ)設(shè)施建設(shè)對于AI項目開發(fā)至關(guān)重要。A、算法B、算力C、程序D、數(shù)據(jù)正確答案:D81.根據(jù)機器智能水平由低到高,正確的是()A、計算智能、感知智能、認(rèn)知智能B、計算智能、感應(yīng)智能、認(rèn)知智能C、機器智能、感知智能、認(rèn)知智能D、機器智能、感應(yīng)智能、認(rèn)知智能正確答案:A82.兩個變量線性相關(guān)的強度以及這些變量的尺度,一般用()來衡量。A、標(biāo)準(zhǔn)差B、協(xié)方差C、期望D、方差正確答案:B83.阿爾法狗是第一個擊敗人類職業(yè)圍棋選手、第一個戰(zhàn)勝圍棋世界冠軍的人工智能程序,它的主要工作原理是什么?A、機器學(xué)習(xí)B、深度學(xué)習(xí)C、BP神經(jīng)網(wǎng)絡(luò)D、卷積神經(jīng)網(wǎng)絡(luò)正確答案:B84.TensorFlow程序開發(fā)時經(jīng)常會使用到placeholder,placeholder是指?A、張量B、占位符C、變量D、常量正確答案:B85.()是專門研究計算機怎樣模擬或?qū)崿F(xiàn)人類的學(xué)習(xí)行為,以獲取新的知識或技能,重新組織已有的知識結(jié)構(gòu),使之不斷改善自身的性能。A、無監(jiān)督學(xué)習(xí)B、有監(jiān)督學(xué)習(xí)C、深度學(xué)習(xí)D、機器學(xué)習(xí)正確答案:D86.下列神經(jīng)網(wǎng)絡(luò)特點描述錯誤的是(___)A、線性特性B、由簡單單元組成C、廣泛并行互連的網(wǎng)絡(luò)D、適應(yīng)性正確答案:A87.關(guān)于Boosting,Bagging和隨機森林,以下說法錯誤的是(___)A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機森林簡單、容易實現(xiàn)、計算開銷小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強的集成正確答案:D88.負(fù)荷預(yù)測分為四類()A、(1)按小時負(fù)荷預(yù)測(2)日負(fù)荷預(yù)測(3)周負(fù)荷預(yù)測(4)月負(fù)荷預(yù)測B、(1)日負(fù)荷預(yù)測(2)周負(fù)荷預(yù)測(3)月負(fù)荷預(yù)測(4)年負(fù)荷預(yù)測C、(1)超短期負(fù)荷預(yù)測(2)短期負(fù)荷預(yù)測(3)中期負(fù)荷預(yù)測(4)長期負(fù)荷預(yù)測D、(1)日負(fù)荷預(yù)測(2)周負(fù)荷預(yù)測(3)月負(fù)荷預(yù)測(4)季負(fù)荷預(yù)測正確答案:C89.圖像灰度的方差表示圖像的哪種屬性A、圖像整體亮度&B、&圖像對比度&C、&圖像飽和度&D、&圖像細(xì)節(jié)正確答案:B90.人工神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中()主要采用反向傳播算法。A、單元學(xué)習(xí)算法B、多層網(wǎng)絡(luò)學(xué)習(xí)C、決策樹學(xué)習(xí)D、概念學(xué)習(xí)正確答案:B91.HUAWEIHiAIEngine能夠輕松將多種AI能力與App集成。A、TRUEB、FALSE正確答案:A92.下列哪個if語句是正確的?A、&if(a>=22)B、ifa>=22:&C、&

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論