2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題(含答案)_第1頁(yè)
2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題(含答案)_第2頁(yè)
2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題(含答案)_第3頁(yè)
2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題(含答案)_第4頁(yè)
2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題(含答案)_第5頁(yè)
已閱讀5頁(yè),還剩44頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題

一、單選題(共59題,每題1分,共59分)

1.OCR的基本技術(shù)路線是什么?

A、文字檢測(cè)->預(yù)處理->文本識(shí)別

B、文本識(shí)別->預(yù)處理->文字檢測(cè)

C、預(yù)處理->文本檢測(cè)->文字識(shí)別

D、預(yù)處理->文本識(shí)別->文字檢測(cè)

正確答案:C

答案解析:OCR的基本技術(shù)路線首先是對(duì)圖像進(jìn)行預(yù)處理,包括圖像

增強(qiáng)、降噪、二值化等操作,以改善圖像質(zhì)量,便于后續(xù)處理。接著

進(jìn)行文字檢測(cè),確定圖像中文字的位置和范圍。最后進(jìn)行文本識(shí)別,

將檢測(cè)到的文字區(qū)域識(shí)別為可編輯的文本。所以基本技術(shù)路線是預(yù)處

理->文本檢測(cè)->文字識(shí)別。

2.以下哪個(gè)選項(xiàng)符合自然語(yǔ)言特點(diǎn)

A、容錯(cuò)性低

B、非結(jié)構(gòu)化

C、歧義性低

D、詞匯量小

正確答案:B

答案解析:自然語(yǔ)言具有非結(jié)構(gòu)化的特點(diǎn),不像結(jié)構(gòu)化數(shù)據(jù)那樣有固

定的格式和模式。自然語(yǔ)言存在大量的歧義性,容錯(cuò)性高,詞匯量極

其豐富。所以選項(xiàng)A、C、D不符合自然語(yǔ)言特點(diǎn),選項(xiàng)B正確。

3.以下哪種單詞表示方法僅使用了局部共現(xiàn)信息

A、ELMo

B、GloVe

C、ONE-HOT

D、Word2vec

正確答案:D

4.Transformer中的自注意力機(jī)制,在計(jì)算過(guò)程中涉及多個(gè)關(guān)鍵向量

,不包括以下哪個(gè)

A、K

B、Q

C、V

D、X

正確答案:D答案解析:Transformer自注意力機(jī)制中,關(guān)鍵向量包括

Query(Q),Key(K),Value(V),用于計(jì)算注意力分?jǐn)?shù)并加權(quán)求和得到

輸出。而X并不在自注意力機(jī)制計(jì)算的關(guān)鍵向量中。

5.針對(duì)輸入“就讀北京大學(xué)”,如果分詞后輸出[就,就讀,讀,北,

北京,北京大學(xué),京,大,大學(xué),學(xué)],最有可能使用了以下哪種切分

方法

A、正向最長(zhǎng)匹配

B、雙向最長(zhǎng)匹配

C、逆向最長(zhǎng)匹配

D、完全切分

正確答案:D

6.以下哪個(gè)函數(shù)能實(shí)現(xiàn)將深度神經(jīng)網(wǎng)絡(luò)的輸出分布標(biāo)準(zhǔn)化,且加和為

1

A、sigmoid

B、softmaxC>relu

D、adam

正確答案:B

答案解析:softmax函數(shù)可以將深度神經(jīng)網(wǎng)絡(luò)的輸出分布標(biāo)準(zhǔn)化,

使得輸出的各個(gè)類別概率之和為1。sigmoid函數(shù)主要用于二分類問(wèn)題

,將輸出值映射到0到1之間;relu函數(shù)是一種激活函數(shù),不用于分布

標(biāo)準(zhǔn)化;adam是一種優(yōu)化算法,并非用于分布標(biāo)準(zhǔn)化的函數(shù)。

7.BERT主要使用了什么模型作為基本結(jié)構(gòu)

A、RNN

B、LSTM

C、TransformerD>GRU

正確答案:C

答案解析:BERT主要使用了Transformer模型作為基本結(jié)構(gòu)。Transfo

rmer具有并行計(jì)算能力、長(zhǎng)序列處理優(yōu)勢(shì)等,非常適合處理大規(guī)模的

文本數(shù)據(jù),使得BERT能夠在多種自然語(yǔ)言處理任務(wù)中取得優(yōu)異的效果

8.以下關(guān)于問(wèn)答系統(tǒng)的描述錯(cuò)誤的是:

A、問(wèn)答系統(tǒng)可以回答復(fù)雜問(wèn)題。

B、問(wèn)答系統(tǒng)可以理解自然語(yǔ)言輸入。C、問(wèn)答系統(tǒng)以文檔或頁(yè)面的形

式返回內(nèi)容。

D、問(wèn)答系統(tǒng)以自然語(yǔ)言形式返回族答。

正確答案:C

答案解析:?jiǎn)柎鹣到y(tǒng)的特點(diǎn)包括能夠回答復(fù)雜問(wèn)題、理解自然語(yǔ)言輸

入,并以自然語(yǔ)言形式返回族答。它不是以文檔或頁(yè)面的形式返回內(nèi)

容,而是直接給出針對(duì)問(wèn)題的語(yǔ)言回答,所以選項(xiàng)C描述錯(cuò)誤。

9.針對(duì)同一個(gè)單詞,以下哪種詞向量模型可以根據(jù)上下文得到不同的

詞向量

A、ONE-HOT

B、Word2vec

C、GloVe

D、ELMo

正確答案:D

答案解析:ELMo是一種基于上下文的詞向量模型,它會(huì)根據(jù)單詞所在

的上下文生成不同的詞向量。ONE-HOT是一種簡(jiǎn)單的向量表示方法,

一個(gè)單詞只有一個(gè)固定的表示,不會(huì)根據(jù)上下文改變。Word2vec和G1

oVe雖然能生成詞向量,但不是基于上下文動(dòng)態(tài)生成不同詞向量的,

而是基于大量文本訓(xùn)練得到一個(gè)相對(duì)固定的詞向量表示。所以答案是

Do

10.以下哪個(gè)任務(wù)不屬于自然語(yǔ)言處理

A、機(jī)器翻譯

B、車牌識(shí)別

C、自動(dòng)問(wèn)答

D、自動(dòng)摘要

正確答案:B

答案解析:自然語(yǔ)言處理主要涉及對(duì)自然語(yǔ)言文本的處理和理解,包

括自動(dòng)問(wèn)答、自動(dòng)摘要、機(jī)器翻譯等。而車牌識(shí)別是對(duì)圖像中的車牌

進(jìn)行識(shí)別,不屬于自然語(yǔ)言處理的范疇。

11.下列不屬于RoiPooling作用的是?

A、減少regionproposals

B、統(tǒng)一regionproposals的形狀

C、加快模型的處理速度

D、實(shí)現(xiàn)端到端訓(xùn)練

正確答案:A

答案解析:RoiPooling的主要作用是統(tǒng)一regionproposals的形狀,

將不同大小和形狀的候選區(qū)域轉(zhuǎn)換為固定大小的特征圖,便于后續(xù)的

卷積操作等處理,從而加快模型的處理速度,同時(shí)也有助于實(shí)現(xiàn)端到

端訓(xùn)練。它并不能減少regionproposals的數(shù)量。

12.以下哪個(gè)是BERT中的掩碼標(biāo)記

A、[CLS]

B、[SEP]

C、[MASK]

D、[TAG]

正確答案:C

13.以下哪個(gè)NLP工具包處理速度最快

A、NLTK

B、CoreNLP

C、LTP

D、HanLP

正確答案:D

14.詞袋模型中綜合考慮單詞頻次及獨(dú)特性的統(tǒng)計(jì)指標(biāo)是什么

A、布爾詞頻

B、TF

C、IDF

D、TF-IDF

正確答案:D

答案解析:詞袋模型中,TF-IDF綜合考慮了單詞頻次(TF)及獨(dú)特性(I

DF)oTF表示詞頻,即某個(gè)單詞在文檔中出現(xiàn)的頻率;IDF表示逆文檔

頻率,反映了單詞在整個(gè)文檔集合中的獨(dú)特性。TF-IDF是TF和IDF的

乘積,它能夠衡量一個(gè)單詞在某個(gè)文檔中的重要程度,綜合考慮了單

詞在文檔中的出現(xiàn)次數(shù)以及在整個(gè)文檔集合中的罕見(jiàn)程度。布爾詞頻

只是簡(jiǎn)單地表示單詞是否出現(xiàn),沒(méi)有考慮頻次和獨(dú)特性;TF只關(guān)注詞

頻;IDF只關(guān)注獨(dú)特性,均不符合題意。

15.在BERT開(kāi)展掩碼語(yǔ)言模型預(yù)訓(xùn)練過(guò)程中,會(huì)對(duì)15%的輸入文本進(jìn)行

mask,其中不屬于常規(guī)mask的操作是哪一個(gè)

A、替換為[mask]標(biāo)記

B、替換為詞表中的任意一個(gè)隨機(jī)詞

C、保持原詞不變

D、刪除原詞

正確答案:D答案解析:在BERT開(kāi)展掩碼語(yǔ)言模型預(yù)訓(xùn)練過(guò)程中,對(duì)1

5%的輸入文本進(jìn)行mask的操作包括:80%的概率將token替換為[mask]

標(biāo)記;10%的概率將token替換為詞表中的任意一個(gè)隨機(jī)詞;10%的概

率保持原詞不變。不會(huì)進(jìn)行刪除原詞的操作。

16.以下哪種詞向量模型為靜態(tài)詞向量模型,且使用了全局統(tǒng)計(jì)信息

進(jìn)行模型訓(xùn)練

A、Word2vec

B、ELMo

C、GloVe

D、ONE-HOT

正確答案:C

17.Transformer中實(shí)現(xiàn)對(duì)輸入文本進(jìn)行編碼的模塊叫什么

A、Encoders

B、Decoders

C、前饋神經(jīng)網(wǎng)絡(luò)

D、自注意力

正確答案:A

答案解析:在Transformer中,負(fù)責(zé)對(duì)輸入文本進(jìn)行編碼的模塊是Enc

oderso它將輸入文本轉(zhuǎn)換為特征表示,以便后續(xù)處理。Decoders用

于解碼,生成輸出序列;前饋神經(jīng)網(wǎng)絡(luò)是Transformer中的一個(gè)組件

,用于對(duì)特征進(jìn)行進(jìn)一步的變換;自注意力機(jī)制是Transformer中用

于計(jì)算輸入序列中元素之間關(guān)系的關(guān)鍵部分,并非直接對(duì)輸入文本進(jìn)

行編碼的模塊。

18.()通過(guò)殘差塊構(gòu)建跨層的數(shù)據(jù)通道,是計(jì)算機(jī)視覺(jué)中最流行的體

系架構(gòu)。

A、VGG

B、AlexNetC、ResNet

D、DenseNet

正確答案:C

答案解析:ResNet通過(guò)殘差塊構(gòu)建跨層的數(shù)據(jù)通道,解決了深度神經(jīng)

網(wǎng)絡(luò)在訓(xùn)練過(guò)程中的梯度消失和退化問(wèn)題,是計(jì)算機(jī)視覺(jué)中非常流行

的體系架構(gòu)。VGG主要是通過(guò)堆疊卷積層來(lái)加深網(wǎng)絡(luò);AlexNet是深度

學(xué)習(xí)中具有開(kāi)創(chuàng)性的網(wǎng)絡(luò),但不是通過(guò)殘差塊構(gòu)建跨層通道;DenseN

et雖然也是一種優(yōu)秀的網(wǎng)絡(luò)結(jié)構(gòu),但題干描述的特征更符合ResNet。

19.以下關(guān)于詞性標(biāo)注的描述錯(cuò)誤的是:

A、詞性是詞匯基本的語(yǔ)法屬性,通常稱為詞類。

B、詞性標(biāo)注是在給定句子中判斷每個(gè)詞的語(yǔ)法范疇,確定其詞性并

加以標(biāo)注的過(guò)程。

C、通常將詞性標(biāo)注作為序列標(biāo)注問(wèn)題來(lái)解決。

D、詞性標(biāo)注最主流的方法是從預(yù)料庫(kù)中統(tǒng)計(jì)每個(gè)詞對(duì)應(yīng)的高頻詞性

,將其作為默認(rèn)的詞性。

正確答案:D

答案解析:詞性標(biāo)注最主流的方法是基于統(tǒng)計(jì)機(jī)器學(xué)習(xí)的方法,利用

大量標(biāo)注好的語(yǔ)料庫(kù)進(jìn)行訓(xùn)練,學(xué)習(xí)詞與詞性之間的統(tǒng)計(jì)規(guī)律,從而

對(duì)新的文本進(jìn)行詞性標(biāo)注,而不是簡(jiǎn)單地從預(yù)料庫(kù)中統(tǒng)計(jì)每個(gè)詞對(duì)應(yīng)

的高頻詞性作為默認(rèn)詞性,所以選項(xiàng)D描述錯(cuò)誤。選項(xiàng)A對(duì)詞性的定義

描述正確;選項(xiàng)B對(duì)詞性標(biāo)注的過(guò)程描述正確;選項(xiàng)C將詞性標(biāo)注作為

序列標(biāo)注問(wèn)題來(lái)解決也是正確的。

20.問(wèn)句“小米的創(chuàng)始人是誰(shuí)?”存在的歧義是什么類型的

A、問(wèn)句本身存在的歧義

B、實(shí)體層面的歧義

C、以上均是

正確答案:B

21.以下關(guān)于自然語(yǔ)言生成任務(wù)的說(shuō)法錯(cuò)誤的是:

A、自然語(yǔ)言生成任務(wù)能夠增加對(duì)話的趣味性。

B、自然語(yǔ)言生成任務(wù)不能通過(guò)截取問(wèn)題的部分與答案進(jìn)行組裝的方

法來(lái)實(shí)現(xiàn)。

C、自然語(yǔ)言生成任務(wù)能夠提升交互的友好性和自然度。

D、可以通過(guò)設(shè)計(jì)回復(fù)模板填槽來(lái)實(shí)現(xiàn)自然語(yǔ)言的回復(fù)。

正確答案:B

答案解析:自然語(yǔ)言生成任務(wù)是可以通過(guò)截取問(wèn)題的部分與答案進(jìn)行

組裝的方法來(lái)實(shí)現(xiàn)的,比如一些簡(jiǎn)單的模板匹配方式等。A選項(xiàng)自然

語(yǔ)言生成任務(wù)可以通過(guò)生成有趣的內(nèi)容增加對(duì)話趣味性;C選項(xiàng)能夠

使交互更友好自然;D選項(xiàng)設(shè)計(jì)回復(fù)模板填槽是實(shí)現(xiàn)自然語(yǔ)言回復(fù)的

一種常見(jiàn)方式。所以B說(shuō)法錯(cuò)誤。

22.BERT常用的預(yù)訓(xùn)練任務(wù)不包括以下哪個(gè)

A、掩碼語(yǔ)言模型

B、下一個(gè)句子預(yù)測(cè)C、N-gram掩碼

D、序列標(biāo)注

正確答案:D

答案解析:序列標(biāo)注是BERT模型應(yīng)用時(shí)的具體任務(wù)類型,并非預(yù)訓(xùn)練

任務(wù)。而掩碼語(yǔ)言模型用于學(xué)習(xí)文本中被掩碼詞的正確表示;下一個(gè)

句子預(yù)測(cè)任務(wù)能讓模型理解句子間的關(guān)系;N-gram掩碼可看作掩碼語(yǔ)

言模型中一種更細(xì)化的掩碼方式,它們都是BERT常用的預(yù)訓(xùn)練任務(wù)。

23.傳統(tǒng)OCR在字符識(shí)別前的步驟是什么

A、文字檢測(cè)

B、字符切割

C、版面恢復(fù)

D、版面分析

正確答案:B

24.有關(guān)圖像融合評(píng)價(jià)指標(biāo)的說(shuō)法中,不正確的是:

A、不存在標(biāo)準(zhǔn)的一套量化指標(biāo)用于評(píng)估圖像質(zhì)量

B、一般可以從主客觀結(jié)合的角度進(jìn)行評(píng)價(jià)

C、以炳為標(biāo)準(zhǔn)的評(píng)價(jià)指標(biāo)都是越大越好

D、可以從信息論角度入手進(jìn)行圖像質(zhì)量評(píng)估

正確答案:C

答案解析:圖像融合評(píng)價(jià)指標(biāo)有多種,以嫡為標(biāo)準(zhǔn)時(shí),并非都是越大

越好。一般而言,從主客觀結(jié)合角度評(píng)價(jià)圖像融合是合理的,目前確

實(shí)不存在標(biāo)準(zhǔn)的一套量化指標(biāo)用于完美評(píng)估圖像質(zhì)量,也可從信息論

角度入手進(jìn)行圖像質(zhì)量評(píng)估。

25.RNN的主要特點(diǎn)不包括

A、可以將誤差微分反向傳播到它的輸入

B、具有強(qiáng)有力的局部信息感知能力

C、能夠?qū)θ我忾L(zhǎng)度的序列進(jìn)行操作,從開(kāi)始到結(jié)束進(jìn)行遍歷

D、具有很強(qiáng)的序列上下文信息捕獲能力

正確答案:B

答案解析:線RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))具有很強(qiáng)的序列上下文信息捕獲能

力,能夠?qū)θ我忾L(zhǎng)度的序列進(jìn)行操作并從開(kāi)始到結(jié)束遍歷,還可以將

誤差微分反向傳播到它的輸入,即具有反向傳播能力。而局部信息感

知能力不是RNN的主要特點(diǎn),卷積神經(jīng)網(wǎng)絡(luò)(CNN)具有強(qiáng)有力的局部信

息感知能力。26.LSTM的輸入態(tài)不包含哪個(gè)?

A、tT時(shí)刻的細(xì)胞狀態(tài)C

B、t-1時(shí)刻隱層狀態(tài)hC、t-1時(shí)刻輸入向量xD、t時(shí)刻輸入向量x

正確答案:C

27.以下哪個(gè)數(shù)據(jù)集常備用于信息檢索任務(wù)

A、MNIST

B、ImageNet

C、TREC

D、IMDB-Face

正確答案:C

答案解析:MNIST是用于圖像識(shí)別的手寫數(shù)字?jǐn)?shù)據(jù)集;ImageNet也是

用于圖像分類等視覺(jué)任務(wù)的大規(guī)模數(shù)據(jù)集;TREC(Text

Retrievalconference)是一個(gè)著名的文本檢索會(huì)議,其相關(guān)數(shù)據(jù)集常

用于信息檢索任務(wù);IMDB-Face主要是關(guān)于IMDB數(shù)據(jù)集與面部相關(guān)的

內(nèi)容,并非典型用于信息檢索。所以答案是[C、]

28.首次將Attention引入文本識(shí)別領(lǐng)域的算法為?

A、SAR算法

B、R-2AM算法

C、NRTR算法

D、MaskTextSpotter算法正確答案:B

29.LexiconAugmentedNER通過(guò)()優(yōu)化了LatticeLSTM

A、word-ignoringstrategy

B、word-weightingstrategy

C、word-reinforcementstrategy。、word-1ossstrategy

正確答案:B

30.卷積神經(jīng)網(wǎng)絡(luò)中,在特征響應(yīng)圖某個(gè)區(qū)域上指定一個(gè)值來(lái)代表整

個(gè)區(qū)域的操作是()

A、全連接

B、卷積

C、池化

D、Dropout正確答案:C

答案解析:池化操作可以在特征響應(yīng)圖某個(gè)區(qū)域上指定一個(gè)值來(lái)代表

整個(gè)區(qū)域,比如最大池化取區(qū)域內(nèi)最大值,平均池化取區(qū)域內(nèi)平均值

等,它能夠降低數(shù)據(jù)維度、保留主要特征等。全連接是將所有神經(jīng)元

連接起來(lái)進(jìn)行計(jì)算;卷積是通過(guò)卷積核提取特征;Dropout是在訓(xùn)練

過(guò)程中隨機(jī)忽略一些神經(jīng)元以防止過(guò)擬合,均不符合題意。

31.用于產(chǎn)生詞嵌入的單向語(yǔ)言模型是哪個(gè)

A、bert

B、elmo

C、gpt

D、bilstm

正確答案:C

答案解析:GPT是一種單向語(yǔ)言模型,它在預(yù)訓(xùn)練過(guò)程中從左到右依

次預(yù)測(cè)下一個(gè)單詞,這種單向的特性使得它適合用于生成詞嵌入。BE

RT是雙向語(yǔ)言模型;ELMO結(jié)合了多種語(yǔ)境下的詞向量;BiLSTM是雙向

循環(huán)神經(jīng)網(wǎng)絡(luò),并非單向語(yǔ)言模型。

32.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?

A、GloVe

B、BERT

C、OpenAI'sGPTD.ULMFit

正確答案:C

33.以下哪種單詞表示方法不能較好的反映單詞的語(yǔ)義信息

A、ONE-HOT

B、Word2vecC>GloVe

D、ELMo

正確答案:A

答案解析:0NE-H0T編碼是將單詞表示為一個(gè)只有一個(gè)位置為1,其他

位置為。的向量,這種表示方法非常稀疏,不能很好地反映單詞的語(yǔ)

義信息,它只是簡(jiǎn)單地對(duì)單詞進(jìn)行了分類標(biāo)識(shí),沒(méi)有體現(xiàn)單詞之間的

語(yǔ)義關(guān)系等信息。而Word2vec、GloVe,ELMo等方法都能在一定程度

上捕捉單詞的語(yǔ)義信息,Word2vec通過(guò)訓(xùn)練詞向量使得語(yǔ)義相近的詞

在向量空間中距離相近;GloVe基于全局詞共現(xiàn)矩陣來(lái)學(xué)習(xí)詞向量;E

LMo則是基于上下文的動(dòng)態(tài)詞向量表示。34.以下關(guān)于多知識(shí)源查詢說(shuō)

法錯(cuò)誤的是:

A、多源知識(shí)庫(kù)查詢根據(jù)知識(shí)庫(kù)是否能夠互連,需要采用不同的策略

O

B、如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,則需要從多個(gè)知識(shí)庫(kù)中獨(dú)

立檢索結(jié)果再進(jìn)行合并。

C、如果多知識(shí)庫(kù)能夠互連,則可以通過(guò)owl:sameAs鏈接構(gòu)建起多知

識(shí)庫(kù)查詢。

D、如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,可以通過(guò)owl:sameAs鏈接

構(gòu)建起多知識(shí)庫(kù)查詢。

正確答案:D

答案解析:多源知識(shí)庫(kù)查詢根據(jù)知識(shí)庫(kù)是否能夠互連,需要采用不同

的策略。如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,則需要從多個(gè)知識(shí)庫(kù)

中獨(dú)立檢索結(jié)果再進(jìn)行合并;如果多知識(shí)庫(kù)能夠互連,則可以通過(guò)0W

LsameAs鏈接構(gòu)建起多知識(shí)庫(kù)查詢。選項(xiàng)D中說(shuō)多個(gè)知識(shí)庫(kù)相互獨(dú)立

不能互連還通過(guò)owl:sameAs鏈接構(gòu)建多知識(shí)庫(kù)查詢是錯(cuò)誤的。

35.有關(guān)圖像融合說(shuō)法中正確的是:

A、紅外-可見(jiàn)光融合任務(wù)受環(huán)境因素影響大

B、一般深度模型都可以應(yīng)用在不同的圖像融合任務(wù)當(dāng)中

C、多曝光融合任務(wù)的輸入只能是過(guò)曝光圖像和欠曝光圖像

D、醫(yī)療圖像融合屬于多光譜信息

正確答案:A

36.以下關(guān)于邏輯表達(dá)式的說(shuō)法錯(cuò)誤的是:

A、邏輯表達(dá)式是區(qū)別于語(yǔ)義解析方法與模板匹配方法的根本差異。

B、邏輯表達(dá)式不適用于知識(shí)庫(kù)的結(jié)構(gòu)化查詢方式。

C、邏輯表達(dá)式適合查找知識(shí)庫(kù)中的實(shí)體及實(shí)體關(guān)系等信息。

D、邏輯表達(dá)式具備邏輯運(yùn)算能力以及將原子級(jí)別的邏輯表達(dá)式組合

成更復(fù)雜的邏輯表達(dá)形式的能力。

正確答案:B

答案解析:邏輯表達(dá)式是區(qū)別于語(yǔ)義解析方法與模板匹配方法的根本

差異,A選項(xiàng)正確。邏輯表達(dá)式適合用于知識(shí)庫(kù)的結(jié)構(gòu)化查詢方式,

能方便地查找知識(shí)庫(kù)中的實(shí)體及實(shí)體關(guān)系等信息,C選項(xiàng)正確,B選項(xiàng)

錯(cuò)誤。邏輯表達(dá)式具備邏輯運(yùn)算能力以及將原子級(jí)別的邏輯表達(dá)式組

合成更復(fù)雜的邏輯表達(dá)形式的能力,D選項(xiàng)正確。

37.下列哪種嵌入方式支持雙向上下文

A、word2vecB、8

C、4

D、2

正確答案:B

45.以下哪個(gè)不是目標(biāo)跟蹤技術(shù)研究的主要難點(diǎn)?

A、目標(biāo)外觀形變

B、目標(biāo)被部分遮擋

C、目標(biāo)尺寸太大

D、背景嘈雜

正確答案:C

答案解析:目標(biāo)跟蹤技術(shù)研究的主要難點(diǎn)包括目標(biāo)外觀形變、背景嘈

雜、目標(biāo)被部分遮擋等。目標(biāo)尺寸太大通常不是主要難點(diǎn),相對(duì)而言

,尺寸大在某些情況下可能還更容易跟蹤一些,而外觀形變、背景復(fù)

雜以及部分遮擋等情況會(huì)給準(zhǔn)確跟蹤目標(biāo)帶來(lái)較大挑戰(zhàn)。

46.自然語(yǔ)言處理能在以下哪些領(lǐng)域發(fā)揮作用

A、自動(dòng)文本摘要

B、自動(dòng)問(wèn)答系統(tǒng)

C、信息檢索

D、以上所有

正確答案:D

答案解析:自然語(yǔ)言處理在自動(dòng)文本摘要中,能夠提取文本的關(guān)鍵信

息,生成簡(jiǎn)潔的摘要;在自動(dòng)問(wèn)答系統(tǒng)里,可以理解用戶問(wèn)題并給出

準(zhǔn)確回答;在信息檢索方面,能更精準(zhǔn)地對(duì)文本進(jìn)行索引和匹配,以

便快速找到相關(guān)信息。所以能在以上所有領(lǐng)域發(fā)揮作用。

47.在“小米的創(chuàng)始人是誰(shuí)”這個(gè)問(wèn)題中,關(guān)系詞是:

A、誰(shuí)

B、小米

C、創(chuàng)始人

正確答案:C

答案解析:該問(wèn)題是在詢問(wèn)小米的創(chuàng)始人是誰(shuí),“創(chuàng)始人”明確了所

詢問(wèn)的與小米的關(guān)系是關(guān)于其創(chuàng)始人這一角色,所以關(guān)系詞是“創(chuàng)始

人”,即選項(xiàng)C。這里關(guān)系詞是用于界定問(wèn)題核心指向的關(guān)鍵概念,在

這個(gè)問(wèn)題里就是圍繞小米和創(chuàng)始人之間的關(guān)系展開(kāi)詢問(wèn),所以“創(chuàng)始

人”是關(guān)系詞。

48.利用下游任務(wù)的有標(biāo)注數(shù)據(jù),對(duì)GPT模型進(jìn)行精調(diào)時(shí),通常使用Ma

cBERT、DistilBERT都是在BERT基礎(chǔ)上進(jìn)行改進(jìn)的模型。

52.對(duì)“Thekidruns”使用ngram后得到“Thekid”,“kidruns"

A、Unigram

B、BigramC>Trigram

D、Quadrigrams

正確答案:B

53.基于Jaccard距離的映射屬于哪種短語(yǔ)映射方法:

A、實(shí)體映射

B、基于語(yǔ)義相似度的映射

C、本體映射

D、字符串相似度映射

正確答案:D

答案解析:Jaccard距離主要用于衡量?jī)蓚€(gè)集合之間的相似度,在短

語(yǔ)映射中可基于字符串特征來(lái)計(jì)算相似度,所以屬于字符串相似度映

射。

54.KBQA面臨的挑戰(zhàn)不包括:

A、缺乏大規(guī)模高質(zhì)量的知識(shí)數(shù)據(jù)源。

B、領(lǐng)域方面的知識(shí)庫(kù)缺乏。

C、自然語(yǔ)言處理技術(shù)發(fā)展不夠成熟。

D、以上都是

正確答案:D

答案解析:KBQA面臨諸多挑戰(zhàn),缺乏大規(guī)模高質(zhì)量的知識(shí)數(shù)據(jù)源會(huì)影

響其知識(shí)儲(chǔ)備和準(zhǔn)確性;領(lǐng)域方面的知識(shí)庫(kù)缺乏會(huì)限制其在特定領(lǐng)域

的應(yīng)用;自然語(yǔ)言處理技術(shù)發(fā)展不夠成熟會(huì)影響對(duì)自然語(yǔ)言問(wèn)題的理

解和分析。所以以上選項(xiàng)均是KBQA面臨的挑戰(zhàn),應(yīng)選D。

55.一個(gè)基礎(chǔ)的transformer模型的輸入是什么

A、詞向量

B、編碼器

C、解碼器

D、神經(jīng)元

正確答案:A

答案解析:在基礎(chǔ)的transformer模型中,輸入首先是經(jīng)過(guò)詞嵌入等

操作得到的詞向量。編碼器處理的是輸入序列,而不是輸入本身;解

碼器處理編碼器的輸出等,不是初始輸入;神經(jīng)元是模型的組成部分

,不是直接的輸入。所以基礎(chǔ)transformer模型的輸入是詞向量,答

案選A。

56.以下關(guān)于消歧的描述錯(cuò)誤的是:

A、歧義包括問(wèn)句本身的歧義和實(shí)體的歧義。

B、消歧模塊主要負(fù)責(zé)消除問(wèn)句分析過(guò)程中發(fā)生的歧義問(wèn)題。

C、基于字符串相似度的方法是消歧的常用方法。

D、檢查屬性及其參數(shù)的一致性是消歧的常用方法。

正確答案:B

57.以下幾種優(yōu)化算法中,哪一種最快()

A、梯度下降法

B、牛頓法C、BFGS

D、Adam

正確答案:C

58.以下關(guān)于BERT模型的描述,哪個(gè)是正確的

A、是一種雙向預(yù)訓(xùn)練語(yǔ)言模型

B、利用大規(guī)模數(shù)據(jù)進(jìn)行有監(jiān)督預(yù)訓(xùn)練

C、使用LSTM模型作為基礎(chǔ)模塊

D、使用從左至右的Transformer語(yǔ)言模型作為基礎(chǔ)模塊

正確答案:A

答案解析:BERT是一種雙向預(yù)訓(xùn)練語(yǔ)言模型,它利用大規(guī)模無(wú)監(jiān)督數(shù)

據(jù)進(jìn)行預(yù)訓(xùn)練,以學(xué)習(xí)語(yǔ)言的通用特征。BERT使用Transformer架構(gòu)

作為基礎(chǔ)模塊,而不是LSTM模型。并且不是從左至右的Transformer

語(yǔ)言模型,而是雙向的Transformer架構(gòu)。所以選項(xiàng)A正確。

59.下列屬于不規(guī)則文本識(shí)別的數(shù)據(jù)集為?

A、IIITK

B、SVTC、IC13

D、IC15

正確答案:D

二、多選題(共49題,每題1分,共49分)

1.下列哪些操作可作為Attention中的打分函數(shù)?

A、向量?jī)?nèi)積B、雙線性變換

C、簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)(感知機(jī))

D、線性差值

正確答案:ABC

答案解析:1.**向量?jī)?nèi)積**:在Attention機(jī)制中,向量?jī)?nèi)積是一種常

見(jiàn)的打分函數(shù)形式。通過(guò)計(jì)算兩個(gè)向量的內(nèi)積,可以衡量它們之間的

相似性或相關(guān)性,從而為注意力分配提供依據(jù)。例如,在基于內(nèi)容的

Attention中,可能會(huì)計(jì)算查詢向量與鍵向量的內(nèi)積來(lái)確定注意力權(quán)

重。2.**雙線性變換**:雙線性變換可以對(duì)兩個(gè)向量進(jìn)行更復(fù)雜的交

互計(jì)算,得到一個(gè)標(biāo)量作為打分結(jié)果。它能夠捕捉向量之間更豐富的

關(guān)系,比簡(jiǎn)單的內(nèi)積更具表達(dá)能力。常用于一些高級(jí)的Attention模

型中,以更好地建模輸入之間的關(guān)系。3.**簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)(感知機(jī))**

:感知機(jī)可以作為打分函數(shù),通過(guò)對(duì)輸入向量進(jìn)行非線性變換來(lái)生成

打分。它能夠?qū)W習(xí)到輸入特征與輸出分?jǐn)?shù)之間的復(fù)雜關(guān)系,適應(yīng)性更

強(qiáng)。在一些基于神經(jīng)網(wǎng)絡(luò)的Attention實(shí)現(xiàn)中,感知機(jī)可以作為核心

的打分模塊。4.**線性差值**:線性差值本身并不直接作為Attention

中的打分函數(shù)。它主要用于在圖像處理等領(lǐng)域進(jìn)行像素值的插值計(jì)算

,與Attention機(jī)制中用于衡量相關(guān)性和分配注意力權(quán)重的打分功能

無(wú)關(guān)。

2.在使用BiLSTM模型抽取實(shí)體時(shí),需要用到以下哪些層:

A、wordembedding層

B、CRF層

C、線性分類層D、BiLSTM層

正確答案:ACD

3.屬于知識(shí)檢索常用手段的有:

A、語(yǔ)義搜索

B、基于模板的知識(shí)檢索

C、基于語(yǔ)義的知識(shí)檢索

D、基于查詢語(yǔ)言的知識(shí)檢索

正確答案:ACD

4.AlexNet本質(zhì)上是一個(gè)更大更深的LeNet,其主要的改進(jìn)在于()。

A、加入了dropout層

B、使用激活函數(shù)ReLU

C、使用最大池化層D、增大了卷積核大小和步長(zhǎng)正確答案:ABC

5.常見(jiàn)的圖像提取特征的算法有?

A、HOG

B、SIFTC.SURF

D、DOG

正確答案:ABCD

6.下列哪些技術(shù)能被用于計(jì)算兩個(gè)詞向量之間的距離

A、詞形還原

B、余弦相似度C、N-grams

D、歐氏距離

正確答案:BD

答案解析:詞形還原是將單詞的不同形式還原為其基本形式,與計(jì)算

詞向量距離無(wú)關(guān)。N-grams是一種語(yǔ)言模型相關(guān)技術(shù),用于提取連續(xù)

的n個(gè)詞元,也不用于計(jì)算詞向量距離。而余弦相似度是一種常用的

計(jì)算兩個(gè)向量夾角余弦值來(lái)衡量向量間相似程度的方法,能用于計(jì)算

詞向量距離;歐氏距離是計(jì)算兩個(gè)向量在空間中的直線距離,同樣可

用于計(jì)算詞向量之間的距離。

7.利用one-hot向量表示文本單詞會(huì)帶來(lái)哪些問(wèn)題?

A、語(yǔ)義鴻溝

B、設(shè)計(jì)復(fù)雜

C、人工標(biāo)注

D、維度爆炸

正確答案:AD

8.以下屬于詞性標(biāo)注的詞性的是:

A、形容詞

B、連詞

C、名詞

D、關(guān)系詞

正確答案:ABC

答案解析:詞性標(biāo)注常見(jiàn)的詞性有名詞、動(dòng)詞、形容詞、副詞、介詞

、連詞、代詞等。選項(xiàng)A形容詞、B連詞、C名詞都屬于常見(jiàn)詞性標(biāo)注

中的詞性,而關(guān)系詞不屬于常見(jiàn)詞性標(biāo)注中的詞性分類。9.下面屬于

詞袋模型的缺點(diǎn)的是?()

A、丟失詞序忽略了上下文

B、表示具有稀疏性

C、詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)

D、模型復(fù)雜,不利于實(shí)施

正確答案:ABC

10.循環(huán)神經(jīng)網(wǎng)絡(luò)具有哪些缺點(diǎn)?

A、不能建模序列信息

B、參數(shù)較少

C、有限的信息交互距離

D、序列依賴、無(wú)法并行

正確答案:CD

答案解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的主要缺點(diǎn)之一是其有限的信息交互

距離,隨著序列長(zhǎng)度的增加,早期時(shí)間步的信息很難有效地傳遞到后

面的時(shí)間步。此外,RNN存在序列依賴問(wèn)題,處理序列時(shí)必須按順序

依次處理每個(gè)元素,無(wú)法并行計(jì)算,這限制了其計(jì)算效率。選項(xiàng)A錯(cuò)

誤,RNN正是用于建模序列信息的。選項(xiàng)B錯(cuò)誤,RNN參數(shù)數(shù)量并不少

,且這也不是其缺點(diǎn)。

11.以下屬于基于模板的KBQA的特點(diǎn)的有:

A、準(zhǔn)確率高

B、人為可控

C、查詢速度快

D、工作量繁重

正確答案:ABCD

12.屬于基于深度學(xué)習(xí)的KBQA的特點(diǎn)的有:

A、人工編寫模板和規(guī)則

B、無(wú)法很好地處理時(shí)序敏感性問(wèn)題

C、自動(dòng)進(jìn)行

D、對(duì)于復(fù)雜問(wèn)題無(wú)法較好地應(yīng)對(duì)

正確答案:BCD

13.彩色圖像灰度化有哪些方法

A、平均法

B、最大最小平均法

C、加權(quán)平均法

D、平均池池化正確答案:ABC

14.在KBQA中,問(wèn)句分析的主要任務(wù)是什么:

A、識(shí)別問(wèn)句中的中心詞

B、識(shí)別問(wèn)句中的主題詞

C、識(shí)別問(wèn)句中的實(shí)體詞

D、識(shí)別問(wèn)句中實(shí)體和實(shí)體之間的依賴關(guān)系

正確答案:ABCD

答案解析:?jiǎn)柧浞治龅闹饕蝿?wù)包括識(shí)別問(wèn)句中的中心詞、主題詞、

實(shí)體詞以及實(shí)體和實(shí)體之間的依賴關(guān)系等。中心詞能幫助把握問(wèn)句核

心意圖;主題詞明確問(wèn)句圍繞的主題;實(shí)體詞是涉及的具體對(duì)象;實(shí)

體間依賴關(guān)系有助于理解它們之間的聯(lián)系,這些對(duì)于準(zhǔn)確理解問(wèn)句含

義,進(jìn)而進(jìn)行有效的知識(shí)檢索和答案生成至關(guān)重要。

15.自然語(yǔ)言理解存在哪些層面的歧義問(wèn)題?

A、詞法

B、語(yǔ)義

C、句法

D、篇章

正確答案:ABCD

答案解析:自然語(yǔ)言理解中的歧義問(wèn)題存在于多個(gè)層面。詞法層面,

比如一些詞具有多種詞性,像“學(xué)習(xí)”既可以是動(dòng)詞也可以是名詞,

容易產(chǎn)生歧義。句法層面,句子的結(jié)構(gòu)可能有多種理解方式,例如“

咬死了獵人的狗”,既可以理解為狗把獵人咬死了,也可以理解為獵

人的狗被咬死了。篇章層面,上下文的語(yǔ)境可能導(dǎo)致對(duì)某些語(yǔ)句的理

解產(chǎn)生歧義,不同的讀者基于自身的知識(shí)背景和理解方式可能有不同

解讀。語(yǔ)義層面,詞語(yǔ)的含義可能不明確,比如“打太極”,既可以

指實(shí)際的打太極拳這個(gè)動(dòng)作,也可以表示推諉、不直接回應(yīng)等含義,

容易造成語(yǔ)義理解的歧義。

16.下列哪些網(wǎng)絡(luò)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)?

A、門控循環(huán)單元(GRU)

B、卷積神經(jīng)網(wǎng)絡(luò)(CNN)

C、Transformer網(wǎng)絡(luò)

D、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)

正確答案:AD

答案解析:門控循環(huán)單元(GRU)和長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)都屬于循環(huán)

神經(jīng)網(wǎng)絡(luò)(RNN)的變體。卷積神經(jīng)網(wǎng)絡(luò)(CNN)主要用于處理具有網(wǎng)格結(jié)

構(gòu)的數(shù)據(jù),如圖像,其工作方式基于卷積運(yùn)算,不屬于RNN。Transfo

rmer網(wǎng)絡(luò)是一種基于自注意力機(jī)制的網(wǎng)絡(luò)架構(gòu),與傳統(tǒng)的RNN有較大

區(qū)別,也不屬于RNN。

17,下列哪項(xiàng)不屬于復(fù)雜類問(wèn)題?

A、劉德華和周潤(rùn)發(fā)誰(shuí)的年齡更大?

B、騰訊是什么性質(zhì)的企業(yè)?

C、拼多多有多少名員工?

D、周杰倫是魔羯座嗎?

正確答案:BCD

18.有關(guān)圖像融合的層級(jí),包括:

A、空間級(jí)圖像融合

B、像素級(jí)圖像融合

C、特征級(jí)圖像融合

D、決策級(jí)圖像融合

正確答案:BCD

答案解析:像素級(jí)圖像融合是對(duì)各源圖像的像素進(jìn)行處理,是最底層

的融合方式;特征級(jí)圖像融合是先從各源圖像中提取特征,再進(jìn)行融

合;決策級(jí)圖像融合是在各個(gè)數(shù)據(jù)源獨(dú)立處理后,在決策層進(jìn)行融合

o而空間級(jí)圖像融合并非圖像融合的標(biāo)準(zhǔn)層級(jí)分類。

19.在KBQA中,構(gòu)建查詢語(yǔ)句的方法有:

A、基于語(yǔ)義解析的方法

B、基于機(jī)器學(xué)習(xí)的方法

C、基于模板的方法

D、基于問(wèn)句分析的方法

正確答案:ABCD

答案解析:基于語(yǔ)義解析的方法是通過(guò)對(duì)自然語(yǔ)言問(wèn)句進(jìn)行語(yǔ)義理解

和分析,將其轉(zhuǎn)換為邏輯形式的查詢語(yǔ)句;基于機(jī)器學(xué)習(xí)的方法利用

大量的訓(xùn)練數(shù)據(jù),訓(xùn)練模型來(lái)生成查詢語(yǔ)句;基于模板的方法是根據(jù)

預(yù)設(shè)的模板,將問(wèn)句中的關(guān)鍵信息填入模板中得到查詢語(yǔ)句;基于問(wèn)

句分析的方法通過(guò)對(duì)問(wèn)句的結(jié)構(gòu)、關(guān)鍵詞等進(jìn)行分析來(lái)構(gòu)建查詢語(yǔ)句

o這幾種方法都可用于在KBQA中構(gòu)建查詢語(yǔ)句。

20.按照存儲(chǔ)結(jié)構(gòu)可將知識(shí)存儲(chǔ)分為基于表結(jié)構(gòu)的知識(shí)存儲(chǔ)和基于圖

結(jié)構(gòu)的知識(shí)存儲(chǔ)兩種類型,以下屬于基于表結(jié)構(gòu)的是:

A、三元組表

B、關(guān)系數(shù)據(jù)庫(kù)C、類型表

D、資源描述框架

正確答案:ABC

21.以下哪些屬于NLP分析技術(shù)?

A、分詞

B、詞性標(biāo)注

C、命名實(shí)體識(shí)別

D、依存分析

正確答案:ABCD

答案解析:分詞是將文本分割成一個(gè)個(gè)詞語(yǔ);詞性標(biāo)注是確定每個(gè)

詞語(yǔ)的詞性;命名實(shí)體識(shí)別是識(shí)別文本中的命名實(shí)體,如人名、地

名、組織名等;依存分析是分析詞語(yǔ)之間的依存關(guān)系,這些都屬于NL

P分析技術(shù)。

22.RPN網(wǎng)絡(luò)的作用

A、判斷anchors屬于positive或者negative

B、生成regionproposals

C、計(jì)算proposal的類別

D、修正anchors獲得精確的proposals

正確答案:ABD

23.以下屬于知識(shí)問(wèn)答系統(tǒng)技術(shù)的有:

A、問(wèn)句分析

B、消歧

C、短語(yǔ)映射

D、多知識(shí)源查詢

正確答案:ABCD

答案解析:短語(yǔ)映射可以幫助將輸入的短語(yǔ)與知識(shí)庫(kù)中的相關(guān)內(nèi)容進(jìn)

行對(duì)應(yīng);問(wèn)句分析能理解問(wèn)句的意圖和結(jié)構(gòu);消歧可處理模糊或有歧

義的表達(dá);多知識(shí)源查詢則能綜合利用多個(gè)知識(shí)源來(lái)獲取更準(zhǔn)確全面

的答案,這些都屬于知識(shí)問(wèn)答系統(tǒng)技術(shù)。

24.對(duì)話系統(tǒng)中存在以下哪些挑戰(zhàn)?

A、小樣本學(xué)習(xí)

B、已知意圖識(shí)別

C、指代省略

D、未知意圖識(shí)別

正確答案:ACD答案解析:在對(duì)話系統(tǒng)中,指代省略會(huì)使理解對(duì)話內(nèi)

容變得困難,因?yàn)樾枰鶕?jù)上下文推斷省略的指代內(nèi)容;小樣本學(xué)習(xí)

時(shí),數(shù)據(jù)量少難以訓(xùn)練出準(zhǔn)確有效的模型;未知意圖識(shí)別方面,當(dāng)遇

到系統(tǒng)未預(yù)先設(shè)定的意圖時(shí),準(zhǔn)確理解和回應(yīng)具有挑戰(zhàn)性。而已知意

圖識(shí)別相對(duì)來(lái)說(shuō)是比較常規(guī)的任務(wù),不屬于對(duì)話系統(tǒng)面臨的主要挑戰(zhàn)

O

25.不屬于CRNN組件的是

A、Transformer

B、bertC、LSTM

D、CNN

正確答案:AB

答案解析:CRNN即卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(ConvolutionalRecurrentNeura

INetwork),是一種結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(如LSTM

)的模型。Transformer和Bert不屬于CRNN組件,Transformer是一種

基于注意力機(jī)制的模型,Bert是基于預(yù)訓(xùn)練的語(yǔ)言模型,它們與CRNN

的結(jié)構(gòu)和原理不同。

26.深度學(xué)習(xí)OCR主要分為以下哪幾步?

A、文本行檢測(cè)

B、字符分割

C、單字符識(shí)別

D、行文本識(shí)別

正確答案:AD

27.常見(jiàn)的語(yǔ)義搜索方法有:

A、關(guān)鍵字查詢

B、數(shù)據(jù)庫(kù)查詢

C、自然語(yǔ)言查詢

D、以上都是

正確答案:AC

28.通用目標(biāo)檢測(cè)不能直接應(yīng)用于場(chǎng)景文本檢測(cè)的原因:

A、無(wú)法做到端到端訓(xùn)練

B、對(duì)檢測(cè)框的精確度要求高

C、文本的字體更小

D、場(chǎng)景更加復(fù)雜

正確答案:BCD

29.Word2vec中有哪些詞向量學(xué)習(xí)模型?A、Skip-gram

B、CBOW

C、BOW

D、Ngram

正確答案:AB

答案解析:Skip-gram和CBOW是Word2vec中兩種典型的詞向量學(xué)習(xí)模

型。Skip-gram模型是通過(guò)中心詞預(yù)測(cè)上下文詞來(lái)學(xué)習(xí)詞向量;CBOW

模型則是通過(guò)上下文詞預(yù)測(cè)中心詞來(lái)學(xué)習(xí)詞向量。而B(niǎo)OW(詞袋模型)

主要是一種文本表示方法,不是Word2vec中的詞向量學(xué)習(xí)模型;Ngra

m是基于n個(gè)連續(xù)詞元的統(tǒng)計(jì)模型,也不屬于Word2vec的詞向量學(xué)習(xí)模

型。

30.在選擇激活函數(shù)時(shí),應(yīng)盡量選擇(),來(lái)避免梯度爆炸/消失。

A、ReLU

B、tanhC、sigmoid

D、LeaklyReLU

正確答案:AD

31.以下關(guān)于關(guān)系抽取描述正確的有:

A、為了在短時(shí)間內(nèi)產(chǎn)生大量的訓(xùn)練數(shù)據(jù),可以使用遠(yuǎn)程監(jiān)督方法

B、關(guān)系抽取指三元組抽取,實(shí)體間的關(guān)系形式化地描述為關(guān)系三元

組(主語(yǔ),謂語(yǔ),賓語(yǔ))。

C、基于規(guī)則的抽取方法的準(zhǔn)確性較高,但是覆蓋率低,維護(hù)和移植

相對(duì)困難,且編寫抽取模板需要投入較多人力和專家知識(shí)。

D、有監(jiān)督方法利用已有的知識(shí)庫(kù)對(duì)未知的數(shù)據(jù)進(jìn)行標(biāo)注。

正確答案:ABC

答案解析:-選項(xiàng)A:有監(jiān)督方法是利用人工標(biāo)注的訓(xùn)練數(shù)據(jù)進(jìn)行模型

訓(xùn)練,而不是利用已有的知識(shí)庫(kù)對(duì)未知數(shù)據(jù)進(jìn)行標(biāo)注,所以A錯(cuò)誤。-

選項(xiàng)B:遠(yuǎn)程監(jiān)督方法通過(guò)假設(shè)知識(shí)庫(kù)中具有相同關(guān)系的實(shí)體對(duì)在文本

中也表達(dá)相同的關(guān)系,能夠快速產(chǎn)生大量訓(xùn)練數(shù)據(jù),B正確。-選項(xiàng)C:

關(guān)系抽取通常就是指從文本中抽取三元組(主語(yǔ),謂語(yǔ),賓語(yǔ))來(lái)描述

實(shí)體間的關(guān)系,C正確。-選項(xiàng)D:基于規(guī)則的抽取方法準(zhǔn)確性較高,但

由于規(guī)則難以覆蓋所有情況,所以覆蓋率低,且維護(hù)和移植相對(duì)困難

,編寫抽取模板需要較多人力和專家知識(shí),D正確。

32.以下屬于用戶畫像圖譜顯示獲取數(shù)據(jù)的方式的有:A、通過(guò)用戶的

歷史訂單、收藏夾等獲取用戶最近關(guān)注的商品信息。

B、通過(guò)豆瓣等評(píng)論推薦型平臺(tái)獲取用戶的喜好。

C、通過(guò)用戶注冊(cè)賬號(hào)時(shí)提交的信息獲取其基本信息。

D、結(jié)合分析歸納或利用機(jī)器學(xué)習(xí)模型獲得信息

正確答案:ABC

33.以下哪項(xiàng)是圖像二值化的全域值方法?

A、自適應(yīng)閾值法

B、固定閾值法C、NiBlack算法D、Otus算法

正確答案:BD

34.可以用來(lái)進(jìn)行詞性標(biāo)注的工具有:

A、LTP

B、jieba

C、HanLP

D、CRF

正確答案:ABC

35.以下屬于問(wèn)答系統(tǒng)的主要模塊的是:

A、查詢構(gòu)建

B、短語(yǔ)映射

C、問(wèn)句分析

D、信息抽取

正確答案:ABC

36.以下不屬于早期實(shí)體抽取方法的是:

A、半監(jiān)督學(xué)習(xí)

B、基于規(guī)則的方法

C、條件隨機(jī)場(chǎng)D、LSTM

正確答案:ACD

37.以下哪些特征提取技術(shù)常用于目標(biāo)跟蹤技術(shù)中提取樣本特征?

A、灰度特征

B、圖像梯度直方圖特征(HOG)

C、顏色名特征(CN)

D、深度卷積特征

正確答案:ABCD答案解析:灰度特征能反映圖像的基本亮度信息,是

常用的特征之一;圖像梯度直方圖特征(HOG)在目標(biāo)檢測(cè)和跟蹤中廣

泛應(yīng)用,能有效描述物體的外形特征;顏色名特征(CN)利用顏色信息

來(lái)表征目標(biāo),有助于區(qū)分不同目標(biāo);深度卷積特征通過(guò)深度卷積神經(jīng)

網(wǎng)絡(luò)提取,能捕捉到更高級(jí)、更抽象的圖像特征,對(duì)目標(biāo)跟蹤也很有

幫助。這幾種特征提取技術(shù)都常用于目標(biāo)跟蹤技術(shù)中提取樣本特征。

38.以下哪些模型屬于循環(huán)神經(jīng)網(wǎng)絡(luò)

A、RNN

B、LSTM

C、GRU

D、CNN

正確答案:ABC

答案解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一類常用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)

絡(luò)。長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)和門控循環(huán)單元(GRU)是RNN的改進(jìn)版本,

它們通過(guò)引入門控機(jī)制來(lái)解決傳統(tǒng)RNN中梯度消失和梯度

爆炸的問(wèn)題,能夠更好地處理長(zhǎng)期依賴關(guān)系。而卷積神經(jīng)網(wǎng)絡(luò)(CNN)

主要用于處理圖像等具有局部特征的數(shù)據(jù),不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)。

所以屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的是RNN、LSTM.GRU,即選項(xiàng)A、B、Co

39.以下哪些是常用的中文分詞工具

A、jieba

B、hanlpC、thulacD、sklearn

正確答案:ABC

答案解析:jieba是Python中一個(gè)常用的中文分詞工具;hanlp是一系

列模型與工具包,提供了豐富的自然語(yǔ)言處理功能,包括中文分詞;

thulac也是一個(gè)中文分詞工具。而sklearn是一個(gè)用于機(jī)器學(xué)習(xí)的工

具包,主要用于數(shù)據(jù)挖掘、數(shù)據(jù)分析和建模等任務(wù),并非中文分詞工

具。

40.在對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)時(shí),我們可以對(duì)其進(jìn)行()。

A、上下翻轉(zhuǎn)

B、裁剪

C、鏡像

D、改變色調(diào)

正確答案:ABCD答案解析:數(shù)據(jù)增強(qiáng)是指對(duì)數(shù)據(jù)進(jìn)行一系列處理以增

加數(shù)據(jù)的多樣性和豐富性,從而提高模型的泛化能力。上下翻轉(zhuǎn)可以

改變圖像的垂直方向,鏡像操作可通過(guò)水平或垂直鏡像增加數(shù)據(jù)量,

裁剪能夠選取不同部分的數(shù)據(jù)形成新的數(shù)據(jù)樣本,改變色調(diào)可以從色

彩角度對(duì)數(shù)據(jù)進(jìn)行變化,這些都是常見(jiàn)的數(shù)據(jù)增強(qiáng)方式。

41.命名實(shí)體識(shí)別可以采用以下哪些方法實(shí)現(xiàn):

A、實(shí)體鏈接工具

B、訓(xùn)練NER模型

C、使用NER工具

D、N-Gram策略

正確答案:ABCD

42.在卷積操作時(shí),給定輸入數(shù)據(jù)矩陣,影響輸出的特征圖組尺寸大

小的因素有()。

A、該層的卷積核個(gè)數(shù)

B、卷積核的寬、高

C、卷積步長(zhǎng)

D、是否采用邊界填充操作

正確答案:ABCD

43.視覺(jué)目標(biāo)跟蹤技術(shù)可用于以下哪些應(yīng)用?

A、安防監(jiān)控

B、無(wú)人機(jī)跟蹤伺服

C、圖像的藝術(shù)風(fēng)格化轉(zhuǎn)換

D、智能駕駛

正確答案:ABD

答案解析:視覺(jué)目標(biāo)跟蹤技術(shù)主要用于在視頻序列中實(shí)時(shí)地跟蹤特定

目標(biāo)的運(yùn)動(dòng)軌跡等。安防監(jiān)控中可對(duì)特定人員或物體進(jìn)行跟蹤,保障

安全;無(wú)人機(jī)跟蹤伺服能讓無(wú)人機(jī)追蹤目標(biāo);智能駕駛里可對(duì)前方車

輛、行人等目標(biāo)進(jìn)行跟蹤以輔助駕駛決策。而圖像的藝術(shù)風(fēng)格化轉(zhuǎn)換

主要是關(guān)于圖像風(fēng)格的改變,與目標(biāo)跟蹤技術(shù)無(wú)關(guān)。所以答案是ABD

O

44.關(guān)于視頻目標(biāo)分割以下說(shuō)法正確的是?

A、視頻目標(biāo)分割的輸出是二進(jìn)制的前景背景分割空間

B、視頻目標(biāo)分割毫無(wú)研究?jī)r(jià)值

C、視頻目標(biāo)分割技術(shù)只能在視頻的每一幀圖像中分割出一個(gè)目標(biāo)出

來(lái)D、目標(biāo)分割技術(shù)的目的是將感興趣的目標(biāo)分割出來(lái)正確答案:AD

45.基于模板的KBQA包括哪些步驟:

A、模板定義

B、語(yǔ)法樹(shù)構(gòu)建

C、模板生成

D、模板匹配

正確答案:ACD

答案解析:基于模板的KBQA主要步驟包括模板定義、模板生成和模板

匹配。模板定義是確定KBQA的基本問(wèn)題類型和結(jié)構(gòu)框架;模板生成是

根據(jù)輸入問(wèn)題從知識(shí)庫(kù)中提取相關(guān)信息并生成具體的模板實(shí)例;

模板匹配則是將生成的模板與知識(shí)庫(kù)進(jìn)行匹配以獲取答案。語(yǔ)法樹(shù)構(gòu)

建并不是基于模板的KBQA的核心步驟,所以不選B。

46.以下哪些評(píng)價(jià)指標(biāo)常用于評(píng)價(jià)文本情感分析效果

A、accuracy

B、precision

C、recall

D、fl

正確答案:ABCD

答案解析:準(zhǔn)確率(accuracy)用于衡量預(yù)測(cè)正確的樣本占總樣本的比

例,能直觀反映模型整體預(yù)測(cè)的準(zhǔn)確性;精確率(precision)表示預(yù)

測(cè)為正例的樣本中實(shí)際為正例的比例,體現(xiàn)了模型預(yù)測(cè)正例的精確程

度;召回率(recall)指實(shí)際為正例的樣本中被預(yù)測(cè)為正例的比例,反

映了模型對(duì)正例的捕捉能力;F1值綜合了精確率和召回率,是二者的

調(diào)和平均,能更全面地評(píng)估模型性能。這幾個(gè)指標(biāo)都常用于評(píng)價(jià)文本

情感分析效果。

47.圖像風(fēng)格轉(zhuǎn)換可應(yīng)用于?

A、手機(jī)拍照自動(dòng)生成藝術(shù)化的圖像或視頻

B、機(jī)器人的搜救功能C、P圖軟件自動(dòng)摳圖

D、人臉圖像動(dòng)漫化

正確答案:ACD

48.以下屬于現(xiàn)階段知識(shí)圖譜技術(shù)類別的有:

A、構(gòu)建技術(shù)

B、應(yīng)用技術(shù)C、展示技術(shù)

D、推理技術(shù)

正確答案:ABD

答案解析:現(xiàn)階段知識(shí)圖譜技術(shù)類別主要包括構(gòu)建技術(shù)、推理技術(shù)和

應(yīng)用技術(shù)。構(gòu)建技術(shù)用于創(chuàng)建知識(shí)圖譜;推理技術(shù)可基于知識(shí)圖譜進(jìn)

行推理;應(yīng)用技術(shù)則將知識(shí)圖譜應(yīng)用于具體場(chǎng)景。展示技術(shù)并非知識(shí)

圖譜的核心技術(shù)類別,它主要側(cè)重于將知識(shí)圖譜以合適的方式呈現(xiàn)給

用戶,不屬于與知識(shí)圖譜本身構(gòu)建、推理、應(yīng)用等同等地位的技術(shù)類

別。

49.以下關(guān)于句法分析的說(shuō)法正確的是:

A、一般來(lái)說(shuō),句法和語(yǔ)言是無(wú)關(guān)的。

B、句法是研究句子的每個(gè)組成部分和它們之間的組合方式。

C、句法分析就是指對(duì)句子中的詞語(yǔ)語(yǔ)法功能進(jìn)行分析。

D、在自然語(yǔ)言或者計(jì)算機(jī)語(yǔ)言中,句法分析是利用形式化的文法規(guī)

則對(duì)一個(gè)符號(hào)串進(jìn)行分析的過(guò)程。

正確答案:BCD

三、判斷題(共39題,每題1分,共39分)

1.NLP是人類和機(jī)器之間溝通的橋梁

A、正確

B、錯(cuò)誤

正確答案:A

2.對(duì)于文本分類來(lái)說(shuō),使用余弦相似度來(lái)計(jì)算KNN中的相似度比使用

歐式距離更合適

A、正確

B、錯(cuò)誤

正確答案:A

3.卷積層的特征相應(yīng)圖深度等于卷積核的個(gè)數(shù)。

A、正確

B、錯(cuò)誤

正確答案:A

4.“在KBQA中,設(shè)計(jì)問(wèn)題回復(fù)模板可以用來(lái)生成自然語(yǔ)言的回復(fù)”是

正確的嗎?

A、正確

B、錯(cuò)誤

正確答案:A5.自然語(yǔ)言處理是實(shí)現(xiàn)人工智能,通過(guò)圖靈測(cè)試的關(guān)鍵

A、正確

B、錯(cuò)誤

正確答案:A

6.BERT只能處理單語(yǔ)言下游任務(wù)

A、正確

B、錯(cuò)誤

正確答案:B

7.word2vec的詞向量是靜態(tài)的

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論