人工智能測試題及答案_第1頁
人工智能測試題及答案_第2頁
人工智能測試題及答案_第3頁
人工智能測試題及答案_第4頁
人工智能測試題及答案_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人工智能測試題及答案

1、循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,

卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個feature

map,則輸出的featuremap矩陣的結(jié)構(gòu)是。。

A、27*27*3

B、28*28*3

C、27*27*6

D、28*28*6

答案:D

2、數(shù)組與列表的區(qū)別在于()

A、數(shù)組元素可變,列表元素不可變

B、以上都不對

C、列表元素類型必須一致,數(shù)組可以不一致

D、數(shù)組元素類型必須一致,列表可以不一致

答案:D

3、下列語句輸出正確的是i=['a','b']1=[1,2]print

(diet([1,i]))

A、{'b':2,'a':1}&

B、&{'a':2,'b':1}&

C、&{1:2,'a':,b,}&

D、&{2:1,'b':'a)}

答案:C

4、查看Atlas300(3000)加速卡驅(qū)動是否安裝成功應(yīng)該使用哪條命令?

A、npusiminfo

B^npuinfo

C、atlas-Driverinfo

D、atlasinfo

答案:A

5、支持向量機(SVM)中的代價參數(shù)C表示什么?O

A、交叉驗證的次數(shù)

B、用到的核函數(shù)

C、在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡

D、以上都不對

答案:C

6、下列核函數(shù)特性描述錯誤的是

A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù)

B、核函數(shù)選擇作為支持向量機的最大變數(shù)

C、核函數(shù)將影響支持向量機的性能

D、核函數(shù)是一種降維模型

答案:D

7、大數(shù)據(jù)的最顯著特征是()

A、數(shù)據(jù)規(guī)模大

B、數(shù)據(jù)類型多樣

C、數(shù)據(jù)處理速度快

D、數(shù)據(jù)價值密度高

答案:A

8、二分搜索算法是利用O實現(xiàn)的算法。

A、分治策略

B、動態(tài)規(guī)劃法

C、貪心法

D、回溯法

答案:A

9、在華為云EI中,以下哪項可以將AI技術(shù)融入各行各業(yè)的應(yīng)用場景中,

發(fā)揮AI技術(shù)的優(yōu)勢,從而提高效率,提升體驗。

A、EI智能體

B、OBS對象存儲服務(wù)

C、云數(shù)據(jù)庫

D、EI大數(shù)據(jù)服務(wù)

答案:A

10、多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。

下列哪一種方法可能是解決此問題的最好選擇?

A、隨機森林分類器

B、卷積神經(jīng)網(wǎng)絡(luò)

C、梯度爆炸

D、上述所有方法

答案:B

11、獨熱編碼的英文是:

A、onehot

B、twohot

C、onecold

D、twocoId

答案:A

12、圖像數(shù)字化分為兩個步驟:一為取樣,二為()。

A、數(shù)字化

B、量化

C、去噪聲

D、清洗

答案:B

13、環(huán)境在接受到個體的行動之后,會反饋給個體環(huán)境目前的狀態(tài)(State)

以及由于上一個行動而產(chǎn)生的O0

A、action

B、reward

C、state

D>agent

答案:B

14、緩解過擬合的一個辦法是允許支持向量機在一些樣本上出錯,以下哪

種形式適合這種方法。()

A、硬間隔支持向量機

B、軟間隔支持向量機

C、線性核函數(shù)支持向量機

D、多項式核函數(shù)支持向量機

答案:B

15、某人回到家說了一聲“燈光”,房間的燈就亮了,這主要應(yīng)用了人工

智能中的()

A、文字識別技術(shù)

B、指紋識別技術(shù)

C、語音識別技術(shù)

D、光學(xué)字符識別

答案:C

16、淺拷貝的含義是

A、拷貝父對象,不拷貝父對象的內(nèi)部對象

B、完全拷貝父對象和子對象

C、僅是引用父對象

D、僅是引用子對象

答案:A

17、在kmean或Knn中,是采用哪種距離計算方法?

A、曼哈頓距離

B、切比雪夫距離

C、歐式距離

D、閔氏距離

答案:C

18、列算法,哪項不屬于深度學(xué)習(xí)模型?。

A、支持向量機SVM

B、深度殘差網(wǎng)絡(luò)

C、卷積神經(jīng)網(wǎng)絡(luò)CNN

D、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN

答案:A

19、神經(jīng)網(wǎng)絡(luò)中DrOPoUt的作用()

A、防止過擬合

B、減小誤差

C、增加網(wǎng)絡(luò)復(fù)雜度

答案:A

20、關(guān)于bagging下列說法錯誤的是:O

A、各基分類器之間有較強依賴,不可以進(jìn)行并行訓(xùn)練。

B、最著名的算法之一是基于決策樹基分類器的隨機森林。

C、當(dāng)訓(xùn)練樣本數(shù)量較少時,子集之間可能有重疊。

D、為了讓基分類器之間互相獨立,需要將訓(xùn)練集分為若干子集。

答案:A

21、關(guān)于“與/或”圖表示法的敘述中,正確的是:。

A、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各

部分的因果關(guān)系。

B、“與/或”圖就是用“AND”和“OR”連續(xù)各個部分的圖形,用來描述各

部分之間的不確定關(guān)系。

C、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來

描述某類問題的層次關(guān)系。

D、“與/或”圖就是用“與”節(jié)點和“或”節(jié)點組合起來的樹形圖,用來

描述某類問題的求解過程。

答案:D

22、神將網(wǎng)絡(luò)訓(xùn)練時,常會遇到很多問題,對于梯度消失問題,我們可以

通過選擇使用以下哪種函數(shù)減輕該問題?

A、Relu函數(shù)

B、Sigmoid函數(shù)

C、tanh函數(shù)

D、Softsign函數(shù)

答案:A

23、E.A?Feigenbaum等人在著名的《人工智能手冊》(第三卷,把機器學(xué)

習(xí)劃分為:機械學(xué)習(xí)、示教學(xué)習(xí)、類比學(xué)習(xí)和()

A、符號主義學(xué)習(xí)

B、監(jiān)督學(xué)習(xí)

C、無監(jiān)督學(xué)習(xí)

D、歸納學(xué)習(xí)

答案:D

24、當(dāng)訓(xùn)練數(shù)據(jù)較少時更()發(fā)生過擬合。

A、不容易

B、容易

C-不會

答案:B

25、概率模型的訓(xùn)練過程就是0過程。

A、參數(shù)估計

B、概率估計

C、極大似然估計

D、分布估計

答案:A

26、若X服從泊松分布P(Io),則EX=()

A、10

B、1

C、100

D、1212122022年1月1。日

答案:A

27、MaPRedUCe默認(rèn)的分區(qū)函數(shù)是()。

A、hash

B、disk

C>reduce

D、map

答案:A

28、按照類別比例分組的k折用的是哪個函數(shù)()

A、RepeatedKFold

B、StratifiedKFold

C、LeavePOut

D、GroupKFold

答案:B

29、scipy中()是空間數(shù)據(jù)結(jié)構(gòu)和算法模塊。

A、cluster

B、constants

C、integrate

D>spatial

答案:D

30、下面對前饋神經(jīng)網(wǎng)絡(luò)描述不正確的是

A、各個神經(jīng)元接受前一級神經(jīng)元的輸入,并輸出到下一級

B、層與層之間通過“全連接”進(jìn)行連接,即兩個相鄰層之間神經(jīng)元完全成

對連接

C、同一層內(nèi)的神經(jīng)元相互不連接

D、同一層內(nèi)神經(jīng)元之間存在全連接

答案:D

31、對于線性可分的數(shù)據(jù),支持向量機的解決方式是()

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項均不正確

答案:B

32、批量梯度下降,小批量梯度下降,隨機梯度下降最重要的區(qū)別在哪里?

A、梯度大小

B、梯度方向

C、學(xué)習(xí)率

D、使用樣本數(shù)

答案:D

33、LlNiJX中,用戶編寫了一個文本文件a.txt,想將該文件名稱改為

txt.a,下列命令。可以實現(xiàn)。

A、cda.txttxt.a

B、echoa.txt>txt.a

C、rma.txttxt.a

D>cata.txt>txt.a

答案:D

34、獨熱編碼的缺點是:①.過于稀疏②.詞與詞的相關(guān)性比較?、?易于編

碼④.容易存儲

A、③④

B、①②

C、①③

D、②④

答案:B

35、袋中有50個乒乓球,其中20個黃的,30個白的,現(xiàn)在兩個人不放回

地依次從袋中隨機各取一球。則第二人取到黃球的概率是

A、1212122022年1月5日

B、1212122022年2月5日

C、1212122022年3月5日

D、1212122022年4月5日

答案:B

36、訓(xùn)練芯片與推理芯片主要應(yīng)用于OO

A、機器學(xué)習(xí)

B、強化學(xué)習(xí)

C、深度學(xué)習(xí)

D、監(jiān)督學(xué)習(xí)

答案:C

37>Python語句list(ranged,10,3))執(zhí)行結(jié)果為。

A、1,10,30]

B、1,3,6,9]

C、1,4,7]

D、2,5,8]

答案:C

38、SkiP-gram在實際操作中,使用一個。(一般情況下,長度是奇

數(shù)),從左到右開始掃描當(dāng)前句子。

A、過濾器

B、滑動窗口

C、篩選器

D、掃描器

答案:B

39、遺傳算法借鑒的生物進(jìn)化的三個基本原則是

A、兩性繁衍突變進(jìn)化

B、適者生存突變進(jìn)化

C、適者生存兩性繁衍進(jìn)化

D、適者生存兩性繁衍突變

答案:D

40、DSSM模型總的來說可以分成哪幾層結(jié)構(gòu),分別是()

A、表示層、匹配層

B、輸入層、匹配層

C、輸入層、表示層

D、輸入層、表示層和匹配層。

答案:D

41、使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()

A、語義網(wǎng)絡(luò)法

B、過程表示法

C、劇本表示法

D、框架表示法

答案:C

42、決策樹所形成的分類邊界有一個明顯特點,它的分類邊界由若干個

)分段組成。

A、與坐標(biāo)軸平行

B、與坐標(biāo)軸垂直

C、與坐標(biāo)軸重合

D、過坐標(biāo)原點

答案:A

43、[[[1.3688,1.0125]],[[0.1747,-0.022463]]]張量的維度為()。

A、2,2

B、1,2,2

C、4,1

D、2,1,2

答案:D

44、PythOn中,以下哪個賦值操作符是錯誤的?

A、+=

B、-=

c、*=

D、X=

答案:D

45、圖計算中圖數(shù)據(jù)往往是。和不規(guī)則的,在利用分布式框架進(jìn)行圖計

算時,首先需要對圖進(jìn)行劃分,將負(fù)載分配到各個節(jié)點上

A、結(jié)構(gòu)化

B、非結(jié)構(gòu)化

C、對稱化

D、規(guī)則化

答案:B

46、()網(wǎng)絡(luò)是一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò),它能將高維輸入數(shù)據(jù)映

射到低維空間,同時保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu),即將高維空間中相

似的樣本點映射到網(wǎng)絡(luò)輸出層中的臨近神經(jīng)元。

A、SoM網(wǎng)絡(luò)

B、RBF網(wǎng)絡(luò)

C、ART網(wǎng)絡(luò)

D、ELman網(wǎng)絡(luò)

答案:A

47、在PytOrCh中,如果主機有1塊TitanX顯卡,以下哪個選項中的代碼

都可以將變量名為var的tensor放在GPU上運行O

A%>var=var.to/zcuda:Oz\var=var.to,,cuda:Γ/

B、var=var.to"CUda:1〃

C、var=var.cuda>var=var.toz,cuda:0,z

D、var=var.CUda、var=var.to〃CUda:1〃〃

答案:c

48、下列哪個模型屬于監(jiān)督學(xué)習(xí)的方法O

A、K-means

B、SVR

C、DBSCAN

D、以上都是

答案:B

49、。是一個具有大量的專門知識與經(jīng)驗的程序系統(tǒng),它應(yīng)用人工智能

技術(shù)和計算機技術(shù),根據(jù)某領(lǐng)域一個或多個專家提供的知識和經(jīng)驗,進(jìn)行推理

和判斷,模擬人類專家的決策過程,以便解決那些需要人類專家處理的復(fù)雜問

題。

A、專家系統(tǒng)

B、機器系統(tǒng)

C、智能芯片

D、人機交互

答案:A

50、()是建立在numPy基礎(chǔ)上的高效數(shù)據(jù)分析處理庫,是PythOn的重要

數(shù)據(jù)分析庫。

A、numpy

B、pandas

C、Matplotlib

D、PIL

答案:B

51、大數(shù)據(jù)技術(shù)為輸入數(shù)據(jù)在()方面做出了貢獻(xiàn),幫助提升了深度學(xué)習(xí)

算法的性能。

A、存儲集合清除

B、存儲整合清除

C、儲蓄集合清洗

D、存儲清洗整合

答案:D

52、()的思想是給定訓(xùn)練樣例集將樣例投影到一條直線上,使得同樣例

的投影點盡可能接近、異類樣例投影點盡可能遠(yuǎn)離;在對新樣本進(jìn)行分類時,將

其投影到同樣的這條直線上,再根據(jù)投影點的位置來確定樣本的類別.

A、多分類學(xué)習(xí)

B、對數(shù)幾率回歸

C、線性判別分析

D、多分類學(xué)習(xí)

答案:C

53、關(guān)于PythOn類說法錯誤的是()。

A、類的實例方法必須創(chuàng)建對象后才可以調(diào)用

B、類的實例方法必須創(chuàng)建對象前才可以調(diào)用

C、類的類方法可以用對象和類名來調(diào)用

D、類的靜態(tài)屬性可以用類名和對象來調(diào)用

答案:B

54、Python包安裝命令正確的是

A、pipinstallxxx

B、condainstallxxx

C、pythoninstallxxx

D、ipythoninstallxxx

答案:A

55、關(guān)于線性回歸的描述,以下正確的有O

A、基本假設(shè)包括隨機干擾項是均值為0,方差為1的標(biāo)準(zhǔn)正態(tài)分布

B、基本假設(shè)包括隨機干擾項是均值為0的同方差正態(tài)分布

C、多重共線性會使得參數(shù)估計值方差減小

D、基本假設(shè)包括不服從正態(tài)分布的隨機干擾項

答案:B

56、負(fù)荷預(yù)測分為四類。

A、(1)按小時負(fù)荷預(yù)測(2)日負(fù)荷預(yù)測(3)周負(fù)荷預(yù)測(4)月負(fù)荷預(yù)

B、(1)日負(fù)荷預(yù)測(2)周負(fù)荷預(yù)測(3)月負(fù)荷預(yù)測(4)年負(fù)荷預(yù)測

C、(1)超短期負(fù)荷預(yù)測(2)短期負(fù)荷預(yù)測(3)中期負(fù)荷預(yù)測(4)長期

負(fù)荷預(yù)測

D、(1)日負(fù)荷預(yù)測(2)周負(fù)荷預(yù)測(3)月負(fù)荷預(yù)測(4)季負(fù)荷預(yù)測

答案:C

57、下列核函數(shù)特性描述錯誤的是(一)

A、只要一個對稱函數(shù)所對應(yīng)的核矩陣半正定,就能稱為核函數(shù);

B、核函數(shù)選擇作為支持向量機的最大變數(shù);

C、核函數(shù)將影響支持向量機的性能;

D、核函數(shù)是一種降維模型;

答案:D

58、關(guān)于遞歸函數(shù)基例的說明,以下選項中錯誤的是

A、遞歸函數(shù)必須有基例

B、遞歸函數(shù)的基例不再進(jìn)行遞歸

C、每個遞歸函數(shù)都只能有一個基例

D、遞歸函數(shù)的基例決定遞歸的深度

答案:C

59、智能機器人可以根據(jù)()得到信息。

A、思維能力

B、行為能力

C、感知能力

D、學(xué)習(xí)能力

答案:c

60、下列哪一項不是常見的機器學(xué)習(xí)模型正則化方法。

A、數(shù)據(jù)優(yōu)化

B、數(shù)據(jù)增強

C、模型集成

D、引入?yún)?shù)范數(shù)懲罰項

答案:A

61、蒙特卡羅強化學(xué)習(xí)算法的本質(zhì),是通過多次嘗試后求平均來作為期望

累計獎賞的金絲,但它在求平均時是采用哪種方式進(jìn)行?

A、逐一式

B、循環(huán)式

C、分組式

D、批處理

答案:D

62、傳統(tǒng)的機器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)

督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連

續(xù)的類型,稱為什么?

A、給定標(biāo)簽

B、離散

C、分類

D、回歸

答案:D

63、對一次數(shù)據(jù)進(jìn)行深度處理或分析(如脫敏、歸約、標(biāo)注、分析、挖掘

等)之后得到的“增值數(shù)據(jù)”稱為O

A、零次數(shù)據(jù)

B、一次數(shù)據(jù)

C、二次數(shù)據(jù)

D、三次數(shù)據(jù)

答案:C

64、一般來講,下列語言屬于人工智能語言的是Oc

A、VJ

B、C#

C、Foxpro

D、LISP

答案:D

65、下列哪個模型屬于無監(jiān)督學(xué)習(xí)()

A、KNN分類

B、邏輯回歸

C、DBSCAN

D、決策樹

答案:C

66、剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通

過衡量剪枝后()變化來決定是否剪枝。

A、信息增益

B、損失函數(shù)

C、準(zhǔn)確率

D、召回率

答案:B

67、Iou表示的是()

A、兩個框之間的重疊程度

B、兩個框的總面積

C、兩個框的相對大小

D、一個框面積與周長比值

答案:A

68、下列哪項不是知識圖譜構(gòu)建的主要技術(shù)()

A、命名實體識別

B、實體鏈接

C、關(guān)系抽取

D、詞性標(biāo)注

答案:D

69、當(dāng)在內(nèi)存網(wǎng)絡(luò)中獲得某個內(nèi)存空間時,通常選擇讀取矢量形式數(shù)據(jù)而

不是標(biāo)量,這里需要的哪種類型的尋址來完成

A、基于內(nèi)容的尋址

B、基于位置的尋址

C、都不行

D、都可以

答案:A

70、半監(jiān)督學(xué)習(xí)包括(一)。

A、純半監(jiān)督學(xué)習(xí)

B、主動學(xué)習(xí)

C、回歸學(xué)習(xí)

D、分類學(xué)習(xí)、

答案:A

71、無監(jiān)督學(xué)習(xí)需要()

A、學(xué)習(xí)程序自己形成和評價概念,沒有教師

B、學(xué)習(xí)程序在教師監(jiān)督下形成和評價概念

C、學(xué)習(xí)程序有時需要教師,有時不需要教師,以形成和評價概念

D、以上說法都不對

答案:A

72、下列應(yīng)用了人工智能技術(shù)的是()①用手寫板輸入漢字②視頻聊天

③與計算機對弈④OCR文字識別

A、①②③

B、①②④

C、①③④

D、②③④

答案:C

73、DroPOUt是一種在深度學(xué)習(xí)環(huán)境中應(yīng)用的正規(guī)化手段。它是這樣運作

的:在一次循環(huán)中我們先隨機選擇神經(jīng)層中的一些單元并將其臨時隱藏,然后

再進(jìn)行該次循環(huán)中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和優(yōu)化過程。在下一次循環(huán)中,我們又將隱

藏另外一些神經(jīng)元,如此直至訓(xùn)練結(jié)束。根據(jù)以上描述,DroPoUt技術(shù)在下列

哪種神經(jīng)層中將無法發(fā)揮顯著優(yōu)勢?

A、仿射層

B、卷積層

C、RNN層

D、均不對

答案:C

74、機器學(xué)習(xí)算法的一般流程是

A、1)收集數(shù)據(jù),2)準(zhǔn)備數(shù)據(jù),3)分析數(shù)據(jù),4)訓(xùn)練算法,5)測試算

法,6)使用算法

B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)訓(xùn)練算法,5)測試算

法,6)使用算法

C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準(zhǔn)備數(shù)據(jù),4)測試算法,5)訓(xùn)練算

法,6)使用算法

D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測試算法,4)訓(xùn)練算法,5)準(zhǔn)備數(shù)

據(jù),6)使用算法

答案:A

75、訓(xùn)練圖像分類模型時,對于圖像的預(yù)處理,下列技術(shù)哪項經(jīng)常要用?

O

A、圖像增強

B、圖像灰度化

C、圖片二值化

D、圖片RGB通道轉(zhuǎn)換

答案:A

76、Python內(nèi)置函數(shù)用來返回序列中的最小元素。

A、least

B、min

C、mini

D>max

答案:B

77、子空間樣本密度大幅提高,距離計算變得更為容易的是O

A、低維嵌入

B、核化線性降維

C、主成分分析

D、k近鄰學(xué)習(xí)

答案:A

78、兩步聚類的兩個主要步驟為O和聚類

A、建模

B、測試

C、分析

D、預(yù)聚類

答案:D

79、如果處理以下形狀的數(shù)據(jù)時,適宜采用DBSCAN的是

A、球形

B、SS形

C、橢球形

D、方形

答案:B

80、在強化學(xué)習(xí)中,哪個機制的引入使得強化學(xué)習(xí)具備了在利用與探索中

尋求平衡的能力

A、貪心策略

B、蒙特卡洛采樣

C、動態(tài)規(guī)劃

D、Bellman方程

答案:A

81、人工智能產(chǎn)業(yè)三大要素是技術(shù)產(chǎn)品、改造提升行業(yè)融合和()。

A、算法運算

B、云計算

C、深度學(xué)習(xí)

D、集成應(yīng)用

答案:D

82、關(guān)于GoogLeNet描述正確的有:

A、GoOgLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)

B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思

C、GoOgLeNet使用了InCePtiOn結(jié)構(gòu),InCePtion結(jié)構(gòu)只有Vl這一個版本

D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)

絡(luò)結(jié)構(gòu)

答案:B

83、根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向

無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)

(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為

(_)o

A、赫布網(wǎng)

B、拉普拉斯網(wǎng)

C、馬爾科夫網(wǎng)

D、塞繆爾網(wǎng)

答案:C

84、()的基本出發(fā)點,是認(rèn)為低維流形嵌入到高維空間之后,直接在高維

空間中計算直線距離具有誤導(dǎo)性,因為高維空間中的直線距離在低維嵌入流形

上是不可達(dá)的。

A、等度量映射

B、等距離映射

C、等空間映射

D、等范圍映射

答案:A

85、以下()屬于數(shù)據(jù)可視化方法體系中的基礎(chǔ)方法。

A、視覺編碼方法論

B、視覺隱喻

C、地理信息可視化

D、時變數(shù)據(jù)可視化

答案:B

86、下列哪項不屬于知識圖譜的分布式表示方法()

A、word2vec

B、TransD

C、TransH

D、TransE

答案:A

87、以下選項不是聚類算法的是()

A、分層聚類

B、K平均值聚類

C、兩步聚類

D、離散聚類

答案:D

88、下列代碼執(zhí)行結(jié)果是?[i**iforiinXrange(3)]

A、1,1,4]

B、0,1,4]

C、1,2,3]

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論