版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
2025年人工智能基礎(chǔ)知識(shí)考試復(fù)習(xí)題
一、單選題(共59題,每題1分,共59分)
1.OCR的基本技術(shù)路線是什么?
A、文字檢測(cè)->預(yù)處理->文本識(shí)別
B、文本識(shí)別->預(yù)處理->文字檢測(cè)
C、預(yù)處理->文本檢測(cè)->文字識(shí)別
D、預(yù)處理->文本識(shí)別->文字檢測(cè)
正確答案:C
答案解析:OCR的基本技術(shù)路線首先是對(duì)圖像進(jìn)行預(yù)處理,包括圖像
增強(qiáng)、降噪、二值化等操作,以改善圖像質(zhì)量,便于后續(xù)處理。接著
進(jìn)行文字檢測(cè),確定圖像中文字的位置和范圍。最后進(jìn)行文本識(shí)別,
將檢測(cè)到的文字區(qū)域識(shí)別為可編輯的文本。所以基本技術(shù)路線是預(yù)處
理->文本檢測(cè)->文字識(shí)別。
2.以下哪個(gè)選項(xiàng)符合自然語(yǔ)言特點(diǎn)
A、容錯(cuò)性低
B、非結(jié)構(gòu)化
C、歧義性低
D、詞匯量小
正確答案:B
答案解析:自然語(yǔ)言具有非結(jié)構(gòu)化的特點(diǎn),不像結(jié)構(gòu)化數(shù)據(jù)那樣有固
定的格式和模式。自然語(yǔ)言存在大量的歧義性,容錯(cuò)性高,詞匯量極
其豐富。所以選項(xiàng)A、C、D不符合自然語(yǔ)言特點(diǎn),選項(xiàng)B正確。
3.以下哪種單詞表示方法僅使用了局部共現(xiàn)信息
A、ELMo
B、GloVe
C、ONE-HOT
D、Word2vec
正確答案:D
4.Transformer中的自注意力機(jī)制,在計(jì)算過(guò)程中涉及多個(gè)關(guān)鍵向量
,不包括以下哪個(gè)
A、K
B、Q
C、V
D、X
正確答案:D答案解析:Transformer自注意力機(jī)制中,關(guān)鍵向量包括
Query(Q),Key(K),Value(V),用于計(jì)算注意力分?jǐn)?shù)并加權(quán)求和得到
輸出。而X并不在自注意力機(jī)制計(jì)算的關(guān)鍵向量中。
5.針對(duì)輸入“就讀北京大學(xué)”,如果分詞后輸出[就,就讀,讀,北,
北京,北京大學(xué),京,大,大學(xué),學(xué)],最有可能使用了以下哪種切分
方法
A、正向最長(zhǎng)匹配
B、雙向最長(zhǎng)匹配
C、逆向最長(zhǎng)匹配
D、完全切分
正確答案:D
6.以下哪個(gè)函數(shù)能實(shí)現(xiàn)將深度神經(jīng)網(wǎng)絡(luò)的輸出分布標(biāo)準(zhǔn)化,且加和為
1
A、sigmoid
B、softmaxC>relu
D、adam
正確答案:B
答案解析:softmax函數(shù)可以將深度神經(jīng)網(wǎng)絡(luò)的輸出分布標(biāo)準(zhǔn)化,
使得輸出的各個(gè)類別概率之和為1。sigmoid函數(shù)主要用于二分類問(wèn)題
,將輸出值映射到0到1之間;relu函數(shù)是一種激活函數(shù),不用于分布
標(biāo)準(zhǔn)化;adam是一種優(yōu)化算法,并非用于分布標(biāo)準(zhǔn)化的函數(shù)。
7.BERT主要使用了什么模型作為基本結(jié)構(gòu)
A、RNN
B、LSTM
C、TransformerD>GRU
正確答案:C
答案解析:BERT主要使用了Transformer模型作為基本結(jié)構(gòu)。Transfo
rmer具有并行計(jì)算能力、長(zhǎng)序列處理優(yōu)勢(shì)等,非常適合處理大規(guī)模的
文本數(shù)據(jù),使得BERT能夠在多種自然語(yǔ)言處理任務(wù)中取得優(yōu)異的效果
8.以下關(guān)于問(wèn)答系統(tǒng)的描述錯(cuò)誤的是:
A、問(wèn)答系統(tǒng)可以回答復(fù)雜問(wèn)題。
B、問(wèn)答系統(tǒng)可以理解自然語(yǔ)言輸入。C、問(wèn)答系統(tǒng)以文檔或頁(yè)面的形
式返回內(nèi)容。
D、問(wèn)答系統(tǒng)以自然語(yǔ)言形式返回族答。
正確答案:C
答案解析:?jiǎn)柎鹣到y(tǒng)的特點(diǎn)包括能夠回答復(fù)雜問(wèn)題、理解自然語(yǔ)言輸
入,并以自然語(yǔ)言形式返回族答。它不是以文檔或頁(yè)面的形式返回內(nèi)
容,而是直接給出針對(duì)問(wèn)題的語(yǔ)言回答,所以選項(xiàng)C描述錯(cuò)誤。
9.針對(duì)同一個(gè)單詞,以下哪種詞向量模型可以根據(jù)上下文得到不同的
詞向量
A、ONE-HOT
B、Word2vec
C、GloVe
D、ELMo
正確答案:D
答案解析:ELMo是一種基于上下文的詞向量模型,它會(huì)根據(jù)單詞所在
的上下文生成不同的詞向量。ONE-HOT是一種簡(jiǎn)單的向量表示方法,
一個(gè)單詞只有一個(gè)固定的表示,不會(huì)根據(jù)上下文改變。Word2vec和G1
oVe雖然能生成詞向量,但不是基于上下文動(dòng)態(tài)生成不同詞向量的,
而是基于大量文本訓(xùn)練得到一個(gè)相對(duì)固定的詞向量表示。所以答案是
Do
10.以下哪個(gè)任務(wù)不屬于自然語(yǔ)言處理
A、機(jī)器翻譯
B、車牌識(shí)別
C、自動(dòng)問(wèn)答
D、自動(dòng)摘要
正確答案:B
答案解析:自然語(yǔ)言處理主要涉及對(duì)自然語(yǔ)言文本的處理和理解,包
括自動(dòng)問(wèn)答、自動(dòng)摘要、機(jī)器翻譯等。而車牌識(shí)別是對(duì)圖像中的車牌
進(jìn)行識(shí)別,不屬于自然語(yǔ)言處理的范疇。
11.下列不屬于RoiPooling作用的是?
A、減少regionproposals
B、統(tǒng)一regionproposals的形狀
C、加快模型的處理速度
D、實(shí)現(xiàn)端到端訓(xùn)練
正確答案:A
答案解析:RoiPooling的主要作用是統(tǒng)一regionproposals的形狀,
將不同大小和形狀的候選區(qū)域轉(zhuǎn)換為固定大小的特征圖,便于后續(xù)的
卷積操作等處理,從而加快模型的處理速度,同時(shí)也有助于實(shí)現(xiàn)端到
端訓(xùn)練。它并不能減少regionproposals的數(shù)量。
12.以下哪個(gè)是BERT中的掩碼標(biāo)記
A、[CLS]
B、[SEP]
C、[MASK]
D、[TAG]
正確答案:C
13.以下哪個(gè)NLP工具包處理速度最快
A、NLTK
B、CoreNLP
C、LTP
D、HanLP
正確答案:D
14.詞袋模型中綜合考慮單詞頻次及獨(dú)特性的統(tǒng)計(jì)指標(biāo)是什么
A、布爾詞頻
B、TF
C、IDF
D、TF-IDF
正確答案:D
答案解析:詞袋模型中,TF-IDF綜合考慮了單詞頻次(TF)及獨(dú)特性(I
DF)oTF表示詞頻,即某個(gè)單詞在文檔中出現(xiàn)的頻率;IDF表示逆文檔
頻率,反映了單詞在整個(gè)文檔集合中的獨(dú)特性。TF-IDF是TF和IDF的
乘積,它能夠衡量一個(gè)單詞在某個(gè)文檔中的重要程度,綜合考慮了單
詞在文檔中的出現(xiàn)次數(shù)以及在整個(gè)文檔集合中的罕見(jiàn)程度。布爾詞頻
只是簡(jiǎn)單地表示單詞是否出現(xiàn),沒(méi)有考慮頻次和獨(dú)特性;TF只關(guān)注詞
頻;IDF只關(guān)注獨(dú)特性,均不符合題意。
15.在BERT開(kāi)展掩碼語(yǔ)言模型預(yù)訓(xùn)練過(guò)程中,會(huì)對(duì)15%的輸入文本進(jìn)行
mask,其中不屬于常規(guī)mask的操作是哪一個(gè)
A、替換為[mask]標(biāo)記
B、替換為詞表中的任意一個(gè)隨機(jī)詞
C、保持原詞不變
D、刪除原詞
正確答案:D答案解析:在BERT開(kāi)展掩碼語(yǔ)言模型預(yù)訓(xùn)練過(guò)程中,對(duì)1
5%的輸入文本進(jìn)行mask的操作包括:80%的概率將token替換為[mask]
標(biāo)記;10%的概率將token替換為詞表中的任意一個(gè)隨機(jī)詞;10%的概
率保持原詞不變。不會(huì)進(jìn)行刪除原詞的操作。
16.以下哪種詞向量模型為靜態(tài)詞向量模型,且使用了全局統(tǒng)計(jì)信息
進(jìn)行模型訓(xùn)練
A、Word2vec
B、ELMo
C、GloVe
D、ONE-HOT
正確答案:C
17.Transformer中實(shí)現(xiàn)對(duì)輸入文本進(jìn)行編碼的模塊叫什么
A、Encoders
B、Decoders
C、前饋神經(jīng)網(wǎng)絡(luò)
D、自注意力
正確答案:A
答案解析:在Transformer中,負(fù)責(zé)對(duì)輸入文本進(jìn)行編碼的模塊是Enc
oderso它將輸入文本轉(zhuǎn)換為特征表示,以便后續(xù)處理。Decoders用
于解碼,生成輸出序列;前饋神經(jīng)網(wǎng)絡(luò)是Transformer中的一個(gè)組件
,用于對(duì)特征進(jìn)行進(jìn)一步的變換;自注意力機(jī)制是Transformer中用
于計(jì)算輸入序列中元素之間關(guān)系的關(guān)鍵部分,并非直接對(duì)輸入文本進(jìn)
行編碼的模塊。
18.()通過(guò)殘差塊構(gòu)建跨層的數(shù)據(jù)通道,是計(jì)算機(jī)視覺(jué)中最流行的體
系架構(gòu)。
A、VGG
B、AlexNetC、ResNet
D、DenseNet
正確答案:C
答案解析:ResNet通過(guò)殘差塊構(gòu)建跨層的數(shù)據(jù)通道,解決了深度神經(jīng)
網(wǎng)絡(luò)在訓(xùn)練過(guò)程中的梯度消失和退化問(wèn)題,是計(jì)算機(jī)視覺(jué)中非常流行
的體系架構(gòu)。VGG主要是通過(guò)堆疊卷積層來(lái)加深網(wǎng)絡(luò);AlexNet是深度
學(xué)習(xí)中具有開(kāi)創(chuàng)性的網(wǎng)絡(luò),但不是通過(guò)殘差塊構(gòu)建跨層通道;DenseN
et雖然也是一種優(yōu)秀的網(wǎng)絡(luò)結(jié)構(gòu),但題干描述的特征更符合ResNet。
19.以下關(guān)于詞性標(biāo)注的描述錯(cuò)誤的是:
A、詞性是詞匯基本的語(yǔ)法屬性,通常稱為詞類。
B、詞性標(biāo)注是在給定句子中判斷每個(gè)詞的語(yǔ)法范疇,確定其詞性并
加以標(biāo)注的過(guò)程。
C、通常將詞性標(biāo)注作為序列標(biāo)注問(wèn)題來(lái)解決。
D、詞性標(biāo)注最主流的方法是從預(yù)料庫(kù)中統(tǒng)計(jì)每個(gè)詞對(duì)應(yīng)的高頻詞性
,將其作為默認(rèn)的詞性。
正確答案:D
答案解析:詞性標(biāo)注最主流的方法是基于統(tǒng)計(jì)機(jī)器學(xué)習(xí)的方法,利用
大量標(biāo)注好的語(yǔ)料庫(kù)進(jìn)行訓(xùn)練,學(xué)習(xí)詞與詞性之間的統(tǒng)計(jì)規(guī)律,從而
對(duì)新的文本進(jìn)行詞性標(biāo)注,而不是簡(jiǎn)單地從預(yù)料庫(kù)中統(tǒng)計(jì)每個(gè)詞對(duì)應(yīng)
的高頻詞性作為默認(rèn)詞性,所以選項(xiàng)D描述錯(cuò)誤。選項(xiàng)A對(duì)詞性的定義
描述正確;選項(xiàng)B對(duì)詞性標(biāo)注的過(guò)程描述正確;選項(xiàng)C將詞性標(biāo)注作為
序列標(biāo)注問(wèn)題來(lái)解決也是正確的。
20.問(wèn)句“小米的創(chuàng)始人是誰(shuí)?”存在的歧義是什么類型的
A、問(wèn)句本身存在的歧義
B、實(shí)體層面的歧義
C、以上均是
正確答案:B
21.以下關(guān)于自然語(yǔ)言生成任務(wù)的說(shuō)法錯(cuò)誤的是:
A、自然語(yǔ)言生成任務(wù)能夠增加對(duì)話的趣味性。
B、自然語(yǔ)言生成任務(wù)不能通過(guò)截取問(wèn)題的部分與答案進(jìn)行組裝的方
法來(lái)實(shí)現(xiàn)。
C、自然語(yǔ)言生成任務(wù)能夠提升交互的友好性和自然度。
D、可以通過(guò)設(shè)計(jì)回復(fù)模板填槽來(lái)實(shí)現(xiàn)自然語(yǔ)言的回復(fù)。
正確答案:B
答案解析:自然語(yǔ)言生成任務(wù)是可以通過(guò)截取問(wèn)題的部分與答案進(jìn)行
組裝的方法來(lái)實(shí)現(xiàn)的,比如一些簡(jiǎn)單的模板匹配方式等。A選項(xiàng)自然
語(yǔ)言生成任務(wù)可以通過(guò)生成有趣的內(nèi)容增加對(duì)話趣味性;C選項(xiàng)能夠
使交互更友好自然;D選項(xiàng)設(shè)計(jì)回復(fù)模板填槽是實(shí)現(xiàn)自然語(yǔ)言回復(fù)的
一種常見(jiàn)方式。所以B說(shuō)法錯(cuò)誤。
22.BERT常用的預(yù)訓(xùn)練任務(wù)不包括以下哪個(gè)
A、掩碼語(yǔ)言模型
B、下一個(gè)句子預(yù)測(cè)C、N-gram掩碼
D、序列標(biāo)注
正確答案:D
答案解析:序列標(biāo)注是BERT模型應(yīng)用時(shí)的具體任務(wù)類型,并非預(yù)訓(xùn)練
任務(wù)。而掩碼語(yǔ)言模型用于學(xué)習(xí)文本中被掩碼詞的正確表示;下一個(gè)
句子預(yù)測(cè)任務(wù)能讓模型理解句子間的關(guān)系;N-gram掩碼可看作掩碼語(yǔ)
言模型中一種更細(xì)化的掩碼方式,它們都是BERT常用的預(yù)訓(xùn)練任務(wù)。
23.傳統(tǒng)OCR在字符識(shí)別前的步驟是什么
A、文字檢測(cè)
B、字符切割
C、版面恢復(fù)
D、版面分析
正確答案:B
24.有關(guān)圖像融合評(píng)價(jià)指標(biāo)的說(shuō)法中,不正確的是:
A、不存在標(biāo)準(zhǔn)的一套量化指標(biāo)用于評(píng)估圖像質(zhì)量
B、一般可以從主客觀結(jié)合的角度進(jìn)行評(píng)價(jià)
C、以炳為標(biāo)準(zhǔn)的評(píng)價(jià)指標(biāo)都是越大越好
D、可以從信息論角度入手進(jìn)行圖像質(zhì)量評(píng)估
正確答案:C
答案解析:圖像融合評(píng)價(jià)指標(biāo)有多種,以嫡為標(biāo)準(zhǔn)時(shí),并非都是越大
越好。一般而言,從主客觀結(jié)合角度評(píng)價(jià)圖像融合是合理的,目前確
實(shí)不存在標(biāo)準(zhǔn)的一套量化指標(biāo)用于完美評(píng)估圖像質(zhì)量,也可從信息論
角度入手進(jìn)行圖像質(zhì)量評(píng)估。
25.RNN的主要特點(diǎn)不包括
A、可以將誤差微分反向傳播到它的輸入
B、具有強(qiáng)有力的局部信息感知能力
C、能夠?qū)θ我忾L(zhǎng)度的序列進(jìn)行操作,從開(kāi)始到結(jié)束進(jìn)行遍歷
D、具有很強(qiáng)的序列上下文信息捕獲能力
正確答案:B
答案解析:線RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))具有很強(qiáng)的序列上下文信息捕獲能
力,能夠?qū)θ我忾L(zhǎng)度的序列進(jìn)行操作并從開(kāi)始到結(jié)束遍歷,還可以將
誤差微分反向傳播到它的輸入,即具有反向傳播能力。而局部信息感
知能力不是RNN的主要特點(diǎn),卷積神經(jīng)網(wǎng)絡(luò)(CNN)具有強(qiáng)有力的局部信
息感知能力。26.LSTM的輸入態(tài)不包含哪個(gè)?
A、tT時(shí)刻的細(xì)胞狀態(tài)C
B、t-1時(shí)刻隱層狀態(tài)hC、t-1時(shí)刻輸入向量xD、t時(shí)刻輸入向量x
正確答案:C
27.以下哪個(gè)數(shù)據(jù)集常備用于信息檢索任務(wù)
A、MNIST
B、ImageNet
C、TREC
D、IMDB-Face
正確答案:C
答案解析:MNIST是用于圖像識(shí)別的手寫數(shù)字?jǐn)?shù)據(jù)集;ImageNet也是
用于圖像分類等視覺(jué)任務(wù)的大規(guī)模數(shù)據(jù)集;TREC(Text
Retrievalconference)是一個(gè)著名的文本檢索會(huì)議,其相關(guān)數(shù)據(jù)集常
用于信息檢索任務(wù);IMDB-Face主要是關(guān)于IMDB數(shù)據(jù)集與面部相關(guān)的
內(nèi)容,并非典型用于信息檢索。所以答案是[C、]
28.首次將Attention引入文本識(shí)別領(lǐng)域的算法為?
A、SAR算法
B、R-2AM算法
C、NRTR算法
D、MaskTextSpotter算法正確答案:B
29.LexiconAugmentedNER通過(guò)()優(yōu)化了LatticeLSTM
A、word-ignoringstrategy
B、word-weightingstrategy
C、word-reinforcementstrategy。、word-1ossstrategy
正確答案:B
30.卷積神經(jīng)網(wǎng)絡(luò)中,在特征響應(yīng)圖某個(gè)區(qū)域上指定一個(gè)值來(lái)代表整
個(gè)區(qū)域的操作是()
A、全連接
B、卷積
C、池化
D、Dropout正確答案:C
答案解析:池化操作可以在特征響應(yīng)圖某個(gè)區(qū)域上指定一個(gè)值來(lái)代表
整個(gè)區(qū)域,比如最大池化取區(qū)域內(nèi)最大值,平均池化取區(qū)域內(nèi)平均值
等,它能夠降低數(shù)據(jù)維度、保留主要特征等。全連接是將所有神經(jīng)元
連接起來(lái)進(jìn)行計(jì)算;卷積是通過(guò)卷積核提取特征;Dropout是在訓(xùn)練
過(guò)程中隨機(jī)忽略一些神經(jīng)元以防止過(guò)擬合,均不符合題意。
31.用于產(chǎn)生詞嵌入的單向語(yǔ)言模型是哪個(gè)
A、bert
B、elmo
C、gpt
D、bilstm
正確答案:C
答案解析:GPT是一種單向語(yǔ)言模型,它在預(yù)訓(xùn)練過(guò)程中從左到右依
次預(yù)測(cè)下一個(gè)單詞,這種單向的特性使得它適合用于生成詞嵌入。BE
RT是雙向語(yǔ)言模型;ELMO結(jié)合了多種語(yǔ)境下的詞向量;BiLSTM是雙向
循環(huán)神經(jīng)網(wǎng)絡(luò),并非單向語(yǔ)言模型。
32.Transformer架構(gòu)首先是由下列哪項(xiàng)引入的?
A、GloVe
B、BERT
C、OpenAI'sGPTD.ULMFit
正確答案:C
33.以下哪種單詞表示方法不能較好的反映單詞的語(yǔ)義信息
A、ONE-HOT
B、Word2vecC>GloVe
D、ELMo
正確答案:A
答案解析:0NE-H0T編碼是將單詞表示為一個(gè)只有一個(gè)位置為1,其他
位置為。的向量,這種表示方法非常稀疏,不能很好地反映單詞的語(yǔ)
義信息,它只是簡(jiǎn)單地對(duì)單詞進(jìn)行了分類標(biāo)識(shí),沒(méi)有體現(xiàn)單詞之間的
語(yǔ)義關(guān)系等信息。而Word2vec、GloVe,ELMo等方法都能在一定程度
上捕捉單詞的語(yǔ)義信息,Word2vec通過(guò)訓(xùn)練詞向量使得語(yǔ)義相近的詞
在向量空間中距離相近;GloVe基于全局詞共現(xiàn)矩陣來(lái)學(xué)習(xí)詞向量;E
LMo則是基于上下文的動(dòng)態(tài)詞向量表示。34.以下關(guān)于多知識(shí)源查詢說(shuō)
法錯(cuò)誤的是:
A、多源知識(shí)庫(kù)查詢根據(jù)知識(shí)庫(kù)是否能夠互連,需要采用不同的策略
O
B、如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,則需要從多個(gè)知識(shí)庫(kù)中獨(dú)
立檢索結(jié)果再進(jìn)行合并。
C、如果多知識(shí)庫(kù)能夠互連,則可以通過(guò)owl:sameAs鏈接構(gòu)建起多知
識(shí)庫(kù)查詢。
D、如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,可以通過(guò)owl:sameAs鏈接
構(gòu)建起多知識(shí)庫(kù)查詢。
正確答案:D
答案解析:多源知識(shí)庫(kù)查詢根據(jù)知識(shí)庫(kù)是否能夠互連,需要采用不同
的策略。如果多個(gè)知識(shí)庫(kù)相互獨(dú)立,不能互連,則需要從多個(gè)知識(shí)庫(kù)
中獨(dú)立檢索結(jié)果再進(jìn)行合并;如果多知識(shí)庫(kù)能夠互連,則可以通過(guò)0W
LsameAs鏈接構(gòu)建起多知識(shí)庫(kù)查詢。選項(xiàng)D中說(shuō)多個(gè)知識(shí)庫(kù)相互獨(dú)立
不能互連還通過(guò)owl:sameAs鏈接構(gòu)建多知識(shí)庫(kù)查詢是錯(cuò)誤的。
35.有關(guān)圖像融合說(shuō)法中正確的是:
A、紅外-可見(jiàn)光融合任務(wù)受環(huán)境因素影響大
B、一般深度模型都可以應(yīng)用在不同的圖像融合任務(wù)當(dāng)中
C、多曝光融合任務(wù)的輸入只能是過(guò)曝光圖像和欠曝光圖像
D、醫(yī)療圖像融合屬于多光譜信息
正確答案:A
36.以下關(guān)于邏輯表達(dá)式的說(shuō)法錯(cuò)誤的是:
A、邏輯表達(dá)式是區(qū)別于語(yǔ)義解析方法與模板匹配方法的根本差異。
B、邏輯表達(dá)式不適用于知識(shí)庫(kù)的結(jié)構(gòu)化查詢方式。
C、邏輯表達(dá)式適合查找知識(shí)庫(kù)中的實(shí)體及實(shí)體關(guān)系等信息。
D、邏輯表達(dá)式具備邏輯運(yùn)算能力以及將原子級(jí)別的邏輯表達(dá)式組合
成更復(fù)雜的邏輯表達(dá)形式的能力。
正確答案:B
答案解析:邏輯表達(dá)式是區(qū)別于語(yǔ)義解析方法與模板匹配方法的根本
差異,A選項(xiàng)正確。邏輯表達(dá)式適合用于知識(shí)庫(kù)的結(jié)構(gòu)化查詢方式,
能方便地查找知識(shí)庫(kù)中的實(shí)體及實(shí)體關(guān)系等信息,C選項(xiàng)正確,B選項(xiàng)
錯(cuò)誤。邏輯表達(dá)式具備邏輯運(yùn)算能力以及將原子級(jí)別的邏輯表達(dá)式組
合成更復(fù)雜的邏輯表達(dá)形式的能力,D選項(xiàng)正確。
37.下列哪種嵌入方式支持雙向上下文
A、word2vecB、8
C、4
D、2
正確答案:B
45.以下哪個(gè)不是目標(biāo)跟蹤技術(shù)研究的主要難點(diǎn)?
A、目標(biāo)外觀形變
B、目標(biāo)被部分遮擋
C、目標(biāo)尺寸太大
D、背景嘈雜
正確答案:C
答案解析:目標(biāo)跟蹤技術(shù)研究的主要難點(diǎn)包括目標(biāo)外觀形變、背景嘈
雜、目標(biāo)被部分遮擋等。目標(biāo)尺寸太大通常不是主要難點(diǎn),相對(duì)而言
,尺寸大在某些情況下可能還更容易跟蹤一些,而外觀形變、背景復(fù)
雜以及部分遮擋等情況會(huì)給準(zhǔn)確跟蹤目標(biāo)帶來(lái)較大挑戰(zhàn)。
46.自然語(yǔ)言處理能在以下哪些領(lǐng)域發(fā)揮作用
A、自動(dòng)文本摘要
B、自動(dòng)問(wèn)答系統(tǒng)
C、信息檢索
D、以上所有
正確答案:D
答案解析:自然語(yǔ)言處理在自動(dòng)文本摘要中,能夠提取文本的關(guān)鍵信
息,生成簡(jiǎn)潔的摘要;在自動(dòng)問(wèn)答系統(tǒng)里,可以理解用戶問(wèn)題并給出
準(zhǔn)確回答;在信息檢索方面,能更精準(zhǔn)地對(duì)文本進(jìn)行索引和匹配,以
便快速找到相關(guān)信息。所以能在以上所有領(lǐng)域發(fā)揮作用。
47.在“小米的創(chuàng)始人是誰(shuí)”這個(gè)問(wèn)題中,關(guān)系詞是:
A、誰(shuí)
B、小米
C、創(chuàng)始人
正確答案:C
答案解析:該問(wèn)題是在詢問(wèn)小米的創(chuàng)始人是誰(shuí),“創(chuàng)始人”明確了所
詢問(wèn)的與小米的關(guān)系是關(guān)于其創(chuàng)始人這一角色,所以關(guān)系詞是“創(chuàng)始
人”,即選項(xiàng)C。這里關(guān)系詞是用于界定問(wèn)題核心指向的關(guān)鍵概念,在
這個(gè)問(wèn)題里就是圍繞小米和創(chuàng)始人之間的關(guān)系展開(kāi)詢問(wèn),所以“創(chuàng)始
人”是關(guān)系詞。
48.利用下游任務(wù)的有標(biāo)注數(shù)據(jù),對(duì)GPT模型進(jìn)行精調(diào)時(shí),通常使用Ma
cBERT、DistilBERT都是在BERT基礎(chǔ)上進(jìn)行改進(jìn)的模型。
52.對(duì)“Thekidruns”使用ngram后得到“Thekid”,“kidruns"
A、Unigram
B、BigramC>Trigram
D、Quadrigrams
正確答案:B
53.基于Jaccard距離的映射屬于哪種短語(yǔ)映射方法:
A、實(shí)體映射
B、基于語(yǔ)義相似度的映射
C、本體映射
D、字符串相似度映射
正確答案:D
答案解析:Jaccard距離主要用于衡量?jī)蓚€(gè)集合之間的相似度,在短
語(yǔ)映射中可基于字符串特征來(lái)計(jì)算相似度,所以屬于字符串相似度映
射。
54.KBQA面臨的挑戰(zhàn)不包括:
A、缺乏大規(guī)模高質(zhì)量的知識(shí)數(shù)據(jù)源。
B、領(lǐng)域方面的知識(shí)庫(kù)缺乏。
C、自然語(yǔ)言處理技術(shù)發(fā)展不夠成熟。
D、以上都是
正確答案:D
答案解析:KBQA面臨諸多挑戰(zhàn),缺乏大規(guī)模高質(zhì)量的知識(shí)數(shù)據(jù)源會(huì)影
響其知識(shí)儲(chǔ)備和準(zhǔn)確性;領(lǐng)域方面的知識(shí)庫(kù)缺乏會(huì)限制其在特定領(lǐng)域
的應(yīng)用;自然語(yǔ)言處理技術(shù)發(fā)展不夠成熟會(huì)影響對(duì)自然語(yǔ)言問(wèn)題的理
解和分析。所以以上選項(xiàng)均是KBQA面臨的挑戰(zhàn),應(yīng)選D。
55.一個(gè)基礎(chǔ)的transformer模型的輸入是什么
A、詞向量
B、編碼器
C、解碼器
D、神經(jīng)元
正確答案:A
答案解析:在基礎(chǔ)的transformer模型中,輸入首先是經(jīng)過(guò)詞嵌入等
操作得到的詞向量。編碼器處理的是輸入序列,而不是輸入本身;解
碼器處理編碼器的輸出等,不是初始輸入;神經(jīng)元是模型的組成部分
,不是直接的輸入。所以基礎(chǔ)transformer模型的輸入是詞向量,答
案選A。
56.以下關(guān)于消歧的描述錯(cuò)誤的是:
A、歧義包括問(wèn)句本身的歧義和實(shí)體的歧義。
B、消歧模塊主要負(fù)責(zé)消除問(wèn)句分析過(guò)程中發(fā)生的歧義問(wèn)題。
C、基于字符串相似度的方法是消歧的常用方法。
D、檢查屬性及其參數(shù)的一致性是消歧的常用方法。
正確答案:B
57.以下幾種優(yōu)化算法中,哪一種最快()
A、梯度下降法
B、牛頓法C、BFGS
D、Adam
正確答案:C
58.以下關(guān)于BERT模型的描述,哪個(gè)是正確的
A、是一種雙向預(yù)訓(xùn)練語(yǔ)言模型
B、利用大規(guī)模數(shù)據(jù)進(jìn)行有監(jiān)督預(yù)訓(xùn)練
C、使用LSTM模型作為基礎(chǔ)模塊
D、使用從左至右的Transformer語(yǔ)言模型作為基礎(chǔ)模塊
正確答案:A
答案解析:BERT是一種雙向預(yù)訓(xùn)練語(yǔ)言模型,它利用大規(guī)模無(wú)監(jiān)督數(shù)
據(jù)進(jìn)行預(yù)訓(xùn)練,以學(xué)習(xí)語(yǔ)言的通用特征。BERT使用Transformer架構(gòu)
作為基礎(chǔ)模塊,而不是LSTM模型。并且不是從左至右的Transformer
語(yǔ)言模型,而是雙向的Transformer架構(gòu)。所以選項(xiàng)A正確。
59.下列屬于不規(guī)則文本識(shí)別的數(shù)據(jù)集為?
A、IIITK
B、SVTC、IC13
D、IC15
正確答案:D
二、多選題(共49題,每題1分,共49分)
1.下列哪些操作可作為Attention中的打分函數(shù)?
A、向量?jī)?nèi)積B、雙線性變換
C、簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)(感知機(jī))
D、線性差值
正確答案:ABC
答案解析:1.**向量?jī)?nèi)積**:在Attention機(jī)制中,向量?jī)?nèi)積是一種常
見(jiàn)的打分函數(shù)形式。通過(guò)計(jì)算兩個(gè)向量的內(nèi)積,可以衡量它們之間的
相似性或相關(guān)性,從而為注意力分配提供依據(jù)。例如,在基于內(nèi)容的
Attention中,可能會(huì)計(jì)算查詢向量與鍵向量的內(nèi)積來(lái)確定注意力權(quán)
重。2.**雙線性變換**:雙線性變換可以對(duì)兩個(gè)向量進(jìn)行更復(fù)雜的交
互計(jì)算,得到一個(gè)標(biāo)量作為打分結(jié)果。它能夠捕捉向量之間更豐富的
關(guān)系,比簡(jiǎn)單的內(nèi)積更具表達(dá)能力。常用于一些高級(jí)的Attention模
型中,以更好地建模輸入之間的關(guān)系。3.**簡(jiǎn)單神經(jīng)網(wǎng)絡(luò)(感知機(jī))**
:感知機(jī)可以作為打分函數(shù),通過(guò)對(duì)輸入向量進(jìn)行非線性變換來(lái)生成
打分。它能夠?qū)W習(xí)到輸入特征與輸出分?jǐn)?shù)之間的復(fù)雜關(guān)系,適應(yīng)性更
強(qiáng)。在一些基于神經(jīng)網(wǎng)絡(luò)的Attention實(shí)現(xiàn)中,感知機(jī)可以作為核心
的打分模塊。4.**線性差值**:線性差值本身并不直接作為Attention
中的打分函數(shù)。它主要用于在圖像處理等領(lǐng)域進(jìn)行像素值的插值計(jì)算
,與Attention機(jī)制中用于衡量相關(guān)性和分配注意力權(quán)重的打分功能
無(wú)關(guān)。
2.在使用BiLSTM模型抽取實(shí)體時(shí),需要用到以下哪些層:
A、wordembedding層
B、CRF層
C、線性分類層D、BiLSTM層
正確答案:ACD
3.屬于知識(shí)檢索常用手段的有:
A、語(yǔ)義搜索
B、基于模板的知識(shí)檢索
C、基于語(yǔ)義的知識(shí)檢索
D、基于查詢語(yǔ)言的知識(shí)檢索
正確答案:ACD
4.AlexNet本質(zhì)上是一個(gè)更大更深的LeNet,其主要的改進(jìn)在于()。
A、加入了dropout層
B、使用激活函數(shù)ReLU
C、使用最大池化層D、增大了卷積核大小和步長(zhǎng)正確答案:ABC
5.常見(jiàn)的圖像提取特征的算法有?
A、HOG
B、SIFTC.SURF
D、DOG
正確答案:ABCD
6.下列哪些技術(shù)能被用于計(jì)算兩個(gè)詞向量之間的距離
A、詞形還原
B、余弦相似度C、N-grams
D、歐氏距離
正確答案:BD
答案解析:詞形還原是將單詞的不同形式還原為其基本形式,與計(jì)算
詞向量距離無(wú)關(guān)。N-grams是一種語(yǔ)言模型相關(guān)技術(shù),用于提取連續(xù)
的n個(gè)詞元,也不用于計(jì)算詞向量距離。而余弦相似度是一種常用的
計(jì)算兩個(gè)向量夾角余弦值來(lái)衡量向量間相似程度的方法,能用于計(jì)算
詞向量距離;歐氏距離是計(jì)算兩個(gè)向量在空間中的直線距離,同樣可
用于計(jì)算詞向量之間的距離。
7.利用one-hot向量表示文本單詞會(huì)帶來(lái)哪些問(wèn)題?
A、語(yǔ)義鴻溝
B、設(shè)計(jì)復(fù)雜
C、人工標(biāo)注
D、維度爆炸
正確答案:AD
8.以下屬于詞性標(biāo)注的詞性的是:
A、形容詞
B、連詞
C、名詞
D、關(guān)系詞
正確答案:ABC
答案解析:詞性標(biāo)注常見(jiàn)的詞性有名詞、動(dòng)詞、形容詞、副詞、介詞
、連詞、代詞等。選項(xiàng)A形容詞、B連詞、C名詞都屬于常見(jiàn)詞性標(biāo)注
中的詞性,而關(guān)系詞不屬于常見(jiàn)詞性標(biāo)注中的詞性分類。9.下面屬于
詞袋模型的缺點(diǎn)的是?()
A、丟失詞序忽略了上下文
B、表示具有稀疏性
C、詞匯表的詞匯需要經(jīng)過(guò)精心設(shè)計(jì)
D、模型復(fù)雜,不利于實(shí)施
正確答案:ABC
10.循環(huán)神經(jīng)網(wǎng)絡(luò)具有哪些缺點(diǎn)?
A、不能建模序列信息
B、參數(shù)較少
C、有限的信息交互距離
D、序列依賴、無(wú)法并行
正確答案:CD
答案解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的主要缺點(diǎn)之一是其有限的信息交互
距離,隨著序列長(zhǎng)度的增加,早期時(shí)間步的信息很難有效地傳遞到后
面的時(shí)間步。此外,RNN存在序列依賴問(wèn)題,處理序列時(shí)必須按順序
依次處理每個(gè)元素,無(wú)法并行計(jì)算,這限制了其計(jì)算效率。選項(xiàng)A錯(cuò)
誤,RNN正是用于建模序列信息的。選項(xiàng)B錯(cuò)誤,RNN參數(shù)數(shù)量并不少
,且這也不是其缺點(diǎn)。
11.以下屬于基于模板的KBQA的特點(diǎn)的有:
A、準(zhǔn)確率高
B、人為可控
C、查詢速度快
D、工作量繁重
正確答案:ABCD
12.屬于基于深度學(xué)習(xí)的KBQA的特點(diǎn)的有:
A、人工編寫模板和規(guī)則
B、無(wú)法很好地處理時(shí)序敏感性問(wèn)題
C、自動(dòng)進(jìn)行
D、對(duì)于復(fù)雜問(wèn)題無(wú)法較好地應(yīng)對(duì)
正確答案:BCD
13.彩色圖像灰度化有哪些方法
A、平均法
B、最大最小平均法
C、加權(quán)平均法
D、平均池池化正確答案:ABC
14.在KBQA中,問(wèn)句分析的主要任務(wù)是什么:
A、識(shí)別問(wèn)句中的中心詞
B、識(shí)別問(wèn)句中的主題詞
C、識(shí)別問(wèn)句中的實(shí)體詞
D、識(shí)別問(wèn)句中實(shí)體和實(shí)體之間的依賴關(guān)系
正確答案:ABCD
答案解析:?jiǎn)柧浞治龅闹饕蝿?wù)包括識(shí)別問(wèn)句中的中心詞、主題詞、
實(shí)體詞以及實(shí)體和實(shí)體之間的依賴關(guān)系等。中心詞能幫助把握問(wèn)句核
心意圖;主題詞明確問(wèn)句圍繞的主題;實(shí)體詞是涉及的具體對(duì)象;實(shí)
體間依賴關(guān)系有助于理解它們之間的聯(lián)系,這些對(duì)于準(zhǔn)確理解問(wèn)句含
義,進(jìn)而進(jìn)行有效的知識(shí)檢索和答案生成至關(guān)重要。
15.自然語(yǔ)言理解存在哪些層面的歧義問(wèn)題?
A、詞法
B、語(yǔ)義
C、句法
D、篇章
正確答案:ABCD
答案解析:自然語(yǔ)言理解中的歧義問(wèn)題存在于多個(gè)層面。詞法層面,
比如一些詞具有多種詞性,像“學(xué)習(xí)”既可以是動(dòng)詞也可以是名詞,
容易產(chǎn)生歧義。句法層面,句子的結(jié)構(gòu)可能有多種理解方式,例如“
咬死了獵人的狗”,既可以理解為狗把獵人咬死了,也可以理解為獵
人的狗被咬死了。篇章層面,上下文的語(yǔ)境可能導(dǎo)致對(duì)某些語(yǔ)句的理
解產(chǎn)生歧義,不同的讀者基于自身的知識(shí)背景和理解方式可能有不同
解讀。語(yǔ)義層面,詞語(yǔ)的含義可能不明確,比如“打太極”,既可以
指實(shí)際的打太極拳這個(gè)動(dòng)作,也可以表示推諉、不直接回應(yīng)等含義,
容易造成語(yǔ)義理解的歧義。
16.下列哪些網(wǎng)絡(luò)屬于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)?
A、門控循環(huán)單元(GRU)
B、卷積神經(jīng)網(wǎng)絡(luò)(CNN)
C、Transformer網(wǎng)絡(luò)
D、長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)
正確答案:AD
答案解析:門控循環(huán)單元(GRU)和長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)都屬于循環(huán)
神經(jīng)網(wǎng)絡(luò)(RNN)的變體。卷積神經(jīng)網(wǎng)絡(luò)(CNN)主要用于處理具有網(wǎng)格結(jié)
構(gòu)的數(shù)據(jù),如圖像,其工作方式基于卷積運(yùn)算,不屬于RNN。Transfo
rmer網(wǎng)絡(luò)是一種基于自注意力機(jī)制的網(wǎng)絡(luò)架構(gòu),與傳統(tǒng)的RNN有較大
區(qū)別,也不屬于RNN。
17,下列哪項(xiàng)不屬于復(fù)雜類問(wèn)題?
A、劉德華和周潤(rùn)發(fā)誰(shuí)的年齡更大?
B、騰訊是什么性質(zhì)的企業(yè)?
C、拼多多有多少名員工?
D、周杰倫是魔羯座嗎?
正確答案:BCD
18.有關(guān)圖像融合的層級(jí),包括:
A、空間級(jí)圖像融合
B、像素級(jí)圖像融合
C、特征級(jí)圖像融合
D、決策級(jí)圖像融合
正確答案:BCD
答案解析:像素級(jí)圖像融合是對(duì)各源圖像的像素進(jìn)行處理,是最底層
的融合方式;特征級(jí)圖像融合是先從各源圖像中提取特征,再進(jìn)行融
合;決策級(jí)圖像融合是在各個(gè)數(shù)據(jù)源獨(dú)立處理后,在決策層進(jìn)行融合
o而空間級(jí)圖像融合并非圖像融合的標(biāo)準(zhǔn)層級(jí)分類。
19.在KBQA中,構(gòu)建查詢語(yǔ)句的方法有:
A、基于語(yǔ)義解析的方法
B、基于機(jī)器學(xué)習(xí)的方法
C、基于模板的方法
D、基于問(wèn)句分析的方法
正確答案:ABCD
答案解析:基于語(yǔ)義解析的方法是通過(guò)對(duì)自然語(yǔ)言問(wèn)句進(jìn)行語(yǔ)義理解
和分析,將其轉(zhuǎn)換為邏輯形式的查詢語(yǔ)句;基于機(jī)器學(xué)習(xí)的方法利用
大量的訓(xùn)練數(shù)據(jù),訓(xùn)練模型來(lái)生成查詢語(yǔ)句;基于模板的方法是根據(jù)
預(yù)設(shè)的模板,將問(wèn)句中的關(guān)鍵信息填入模板中得到查詢語(yǔ)句;基于問(wèn)
句分析的方法通過(guò)對(duì)問(wèn)句的結(jié)構(gòu)、關(guān)鍵詞等進(jìn)行分析來(lái)構(gòu)建查詢語(yǔ)句
o這幾種方法都可用于在KBQA中構(gòu)建查詢語(yǔ)句。
20.按照存儲(chǔ)結(jié)構(gòu)可將知識(shí)存儲(chǔ)分為基于表結(jié)構(gòu)的知識(shí)存儲(chǔ)和基于圖
結(jié)構(gòu)的知識(shí)存儲(chǔ)兩種類型,以下屬于基于表結(jié)構(gòu)的是:
A、三元組表
B、關(guān)系數(shù)據(jù)庫(kù)C、類型表
D、資源描述框架
正確答案:ABC
21.以下哪些屬于NLP分析技術(shù)?
A、分詞
B、詞性標(biāo)注
C、命名實(shí)體識(shí)別
D、依存分析
正確答案:ABCD
答案解析:分詞是將文本分割成一個(gè)個(gè)詞語(yǔ);詞性標(biāo)注是確定每個(gè)
詞語(yǔ)的詞性;命名實(shí)體識(shí)別是識(shí)別文本中的命名實(shí)體,如人名、地
名、組織名等;依存分析是分析詞語(yǔ)之間的依存關(guān)系,這些都屬于NL
P分析技術(shù)。
22.RPN網(wǎng)絡(luò)的作用
A、判斷anchors屬于positive或者negative
B、生成regionproposals
C、計(jì)算proposal的類別
D、修正anchors獲得精確的proposals
正確答案:ABD
23.以下屬于知識(shí)問(wèn)答系統(tǒng)技術(shù)的有:
A、問(wèn)句分析
B、消歧
C、短語(yǔ)映射
D、多知識(shí)源查詢
正確答案:ABCD
答案解析:短語(yǔ)映射可以幫助將輸入的短語(yǔ)與知識(shí)庫(kù)中的相關(guān)內(nèi)容進(jìn)
行對(duì)應(yīng);問(wèn)句分析能理解問(wèn)句的意圖和結(jié)構(gòu);消歧可處理模糊或有歧
義的表達(dá);多知識(shí)源查詢則能綜合利用多個(gè)知識(shí)源來(lái)獲取更準(zhǔn)確全面
的答案,這些都屬于知識(shí)問(wèn)答系統(tǒng)技術(shù)。
24.對(duì)話系統(tǒng)中存在以下哪些挑戰(zhàn)?
A、小樣本學(xué)習(xí)
B、已知意圖識(shí)別
C、指代省略
D、未知意圖識(shí)別
正確答案:ACD答案解析:在對(duì)話系統(tǒng)中,指代省略會(huì)使理解對(duì)話內(nèi)
容變得困難,因?yàn)樾枰鶕?jù)上下文推斷省略的指代內(nèi)容;小樣本學(xué)習(xí)
時(shí),數(shù)據(jù)量少難以訓(xùn)練出準(zhǔn)確有效的模型;未知意圖識(shí)別方面,當(dāng)遇
到系統(tǒng)未預(yù)先設(shè)定的意圖時(shí),準(zhǔn)確理解和回應(yīng)具有挑戰(zhàn)性。而已知意
圖識(shí)別相對(duì)來(lái)說(shuō)是比較常規(guī)的任務(wù),不屬于對(duì)話系統(tǒng)面臨的主要挑戰(zhàn)
O
25.不屬于CRNN組件的是
A、Transformer
B、bertC、LSTM
D、CNN
正確答案:AB
答案解析:CRNN即卷積循環(huán)神經(jīng)網(wǎng)絡(luò)(ConvolutionalRecurrentNeura
INetwork),是一種結(jié)合了卷積神經(jīng)網(wǎng)絡(luò)(CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(如LSTM
)的模型。Transformer和Bert不屬于CRNN組件,Transformer是一種
基于注意力機(jī)制的模型,Bert是基于預(yù)訓(xùn)練的語(yǔ)言模型,它們與CRNN
的結(jié)構(gòu)和原理不同。
26.深度學(xué)習(xí)OCR主要分為以下哪幾步?
A、文本行檢測(cè)
B、字符分割
C、單字符識(shí)別
D、行文本識(shí)別
正確答案:AD
27.常見(jiàn)的語(yǔ)義搜索方法有:
A、關(guān)鍵字查詢
B、數(shù)據(jù)庫(kù)查詢
C、自然語(yǔ)言查詢
D、以上都是
正確答案:AC
28.通用目標(biāo)檢測(cè)不能直接應(yīng)用于場(chǎng)景文本檢測(cè)的原因:
A、無(wú)法做到端到端訓(xùn)練
B、對(duì)檢測(cè)框的精確度要求高
C、文本的字體更小
D、場(chǎng)景更加復(fù)雜
正確答案:BCD
29.Word2vec中有哪些詞向量學(xué)習(xí)模型?A、Skip-gram
B、CBOW
C、BOW
D、Ngram
正確答案:AB
答案解析:Skip-gram和CBOW是Word2vec中兩種典型的詞向量學(xué)習(xí)模
型。Skip-gram模型是通過(guò)中心詞預(yù)測(cè)上下文詞來(lái)學(xué)習(xí)詞向量;CBOW
模型則是通過(guò)上下文詞預(yù)測(cè)中心詞來(lái)學(xué)習(xí)詞向量。而B(niǎo)OW(詞袋模型)
主要是一種文本表示方法,不是Word2vec中的詞向量學(xué)習(xí)模型;Ngra
m是基于n個(gè)連續(xù)詞元的統(tǒng)計(jì)模型,也不屬于Word2vec的詞向量學(xué)習(xí)模
型。
30.在選擇激活函數(shù)時(shí),應(yīng)盡量選擇(),來(lái)避免梯度爆炸/消失。
A、ReLU
B、tanhC、sigmoid
D、LeaklyReLU
正確答案:AD
31.以下關(guān)于關(guān)系抽取描述正確的有:
A、為了在短時(shí)間內(nèi)產(chǎn)生大量的訓(xùn)練數(shù)據(jù),可以使用遠(yuǎn)程監(jiān)督方法
B、關(guān)系抽取指三元組抽取,實(shí)體間的關(guān)系形式化地描述為關(guān)系三元
組(主語(yǔ),謂語(yǔ),賓語(yǔ))。
C、基于規(guī)則的抽取方法的準(zhǔn)確性較高,但是覆蓋率低,維護(hù)和移植
相對(duì)困難,且編寫抽取模板需要投入較多人力和專家知識(shí)。
D、有監(jiān)督方法利用已有的知識(shí)庫(kù)對(duì)未知的數(shù)據(jù)進(jìn)行標(biāo)注。
正確答案:ABC
答案解析:-選項(xiàng)A:有監(jiān)督方法是利用人工標(biāo)注的訓(xùn)練數(shù)據(jù)進(jìn)行模型
訓(xùn)練,而不是利用已有的知識(shí)庫(kù)對(duì)未知數(shù)據(jù)進(jìn)行標(biāo)注,所以A錯(cuò)誤。-
選項(xiàng)B:遠(yuǎn)程監(jiān)督方法通過(guò)假設(shè)知識(shí)庫(kù)中具有相同關(guān)系的實(shí)體對(duì)在文本
中也表達(dá)相同的關(guān)系,能夠快速產(chǎn)生大量訓(xùn)練數(shù)據(jù),B正確。-選項(xiàng)C:
關(guān)系抽取通常就是指從文本中抽取三元組(主語(yǔ),謂語(yǔ),賓語(yǔ))來(lái)描述
實(shí)體間的關(guān)系,C正確。-選項(xiàng)D:基于規(guī)則的抽取方法準(zhǔn)確性較高,但
由于規(guī)則難以覆蓋所有情況,所以覆蓋率低,且維護(hù)和移植相對(duì)困難
,編寫抽取模板需要較多人力和專家知識(shí),D正確。
32.以下屬于用戶畫像圖譜顯示獲取數(shù)據(jù)的方式的有:A、通過(guò)用戶的
歷史訂單、收藏夾等獲取用戶最近關(guān)注的商品信息。
B、通過(guò)豆瓣等評(píng)論推薦型平臺(tái)獲取用戶的喜好。
C、通過(guò)用戶注冊(cè)賬號(hào)時(shí)提交的信息獲取其基本信息。
D、結(jié)合分析歸納或利用機(jī)器學(xué)習(xí)模型獲得信息
正確答案:ABC
33.以下哪項(xiàng)是圖像二值化的全域值方法?
A、自適應(yīng)閾值法
B、固定閾值法C、NiBlack算法D、Otus算法
正確答案:BD
34.可以用來(lái)進(jìn)行詞性標(biāo)注的工具有:
A、LTP
B、jieba
C、HanLP
D、CRF
正確答案:ABC
35.以下屬于問(wèn)答系統(tǒng)的主要模塊的是:
A、查詢構(gòu)建
B、短語(yǔ)映射
C、問(wèn)句分析
D、信息抽取
正確答案:ABC
36.以下不屬于早期實(shí)體抽取方法的是:
A、半監(jiān)督學(xué)習(xí)
B、基于規(guī)則的方法
C、條件隨機(jī)場(chǎng)D、LSTM
正確答案:ACD
37.以下哪些特征提取技術(shù)常用于目標(biāo)跟蹤技術(shù)中提取樣本特征?
A、灰度特征
B、圖像梯度直方圖特征(HOG)
C、顏色名特征(CN)
D、深度卷積特征
正確答案:ABCD答案解析:灰度特征能反映圖像的基本亮度信息,是
常用的特征之一;圖像梯度直方圖特征(HOG)在目標(biāo)檢測(cè)和跟蹤中廣
泛應(yīng)用,能有效描述物體的外形特征;顏色名特征(CN)利用顏色信息
來(lái)表征目標(biāo),有助于區(qū)分不同目標(biāo);深度卷積特征通過(guò)深度卷積神經(jīng)
網(wǎng)絡(luò)提取,能捕捉到更高級(jí)、更抽象的圖像特征,對(duì)目標(biāo)跟蹤也很有
幫助。這幾種特征提取技術(shù)都常用于目標(biāo)跟蹤技術(shù)中提取樣本特征。
38.以下哪些模型屬于循環(huán)神經(jīng)網(wǎng)絡(luò)
A、RNN
B、LSTM
C、GRU
D、CNN
正確答案:ABC
答案解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是一類常用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)
絡(luò)。長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)和門控循環(huán)單元(GRU)是RNN的改進(jìn)版本,
它們通過(guò)引入門控機(jī)制來(lái)解決傳統(tǒng)RNN中梯度消失和梯度
爆炸的問(wèn)題,能夠更好地處理長(zhǎng)期依賴關(guān)系。而卷積神經(jīng)網(wǎng)絡(luò)(CNN)
主要用于處理圖像等具有局部特征的數(shù)據(jù),不屬于循環(huán)神經(jīng)網(wǎng)絡(luò)。
所以屬于循環(huán)神經(jīng)網(wǎng)絡(luò)的是RNN、LSTM.GRU,即選項(xiàng)A、B、Co
39.以下哪些是常用的中文分詞工具
A、jieba
B、hanlpC、thulacD、sklearn
正確答案:ABC
答案解析:jieba是Python中一個(gè)常用的中文分詞工具;hanlp是一系
列模型與工具包,提供了豐富的自然語(yǔ)言處理功能,包括中文分詞;
thulac也是一個(gè)中文分詞工具。而sklearn是一個(gè)用于機(jī)器學(xué)習(xí)的工
具包,主要用于數(shù)據(jù)挖掘、數(shù)據(jù)分析和建模等任務(wù),并非中文分詞工
具。
40.在對(duì)數(shù)據(jù)進(jìn)行數(shù)據(jù)增強(qiáng)時(shí),我們可以對(duì)其進(jìn)行()。
A、上下翻轉(zhuǎn)
B、裁剪
C、鏡像
D、改變色調(diào)
正確答案:ABCD答案解析:數(shù)據(jù)增強(qiáng)是指對(duì)數(shù)據(jù)進(jìn)行一系列處理以增
加數(shù)據(jù)的多樣性和豐富性,從而提高模型的泛化能力。上下翻轉(zhuǎn)可以
改變圖像的垂直方向,鏡像操作可通過(guò)水平或垂直鏡像增加數(shù)據(jù)量,
裁剪能夠選取不同部分的數(shù)據(jù)形成新的數(shù)據(jù)樣本,改變色調(diào)可以從色
彩角度對(duì)數(shù)據(jù)進(jìn)行變化,這些都是常見(jiàn)的數(shù)據(jù)增強(qiáng)方式。
41.命名實(shí)體識(shí)別可以采用以下哪些方法實(shí)現(xiàn):
A、實(shí)體鏈接工具
B、訓(xùn)練NER模型
C、使用NER工具
D、N-Gram策略
正確答案:ABCD
42.在卷積操作時(shí),給定輸入數(shù)據(jù)矩陣,影響輸出的特征圖組尺寸大
小的因素有()。
A、該層的卷積核個(gè)數(shù)
B、卷積核的寬、高
C、卷積步長(zhǎng)
D、是否采用邊界填充操作
正確答案:ABCD
43.視覺(jué)目標(biāo)跟蹤技術(shù)可用于以下哪些應(yīng)用?
A、安防監(jiān)控
B、無(wú)人機(jī)跟蹤伺服
C、圖像的藝術(shù)風(fēng)格化轉(zhuǎn)換
D、智能駕駛
正確答案:ABD
答案解析:視覺(jué)目標(biāo)跟蹤技術(shù)主要用于在視頻序列中實(shí)時(shí)地跟蹤特定
目標(biāo)的運(yùn)動(dòng)軌跡等。安防監(jiān)控中可對(duì)特定人員或物體進(jìn)行跟蹤,保障
安全;無(wú)人機(jī)跟蹤伺服能讓無(wú)人機(jī)追蹤目標(biāo);智能駕駛里可對(duì)前方車
輛、行人等目標(biāo)進(jìn)行跟蹤以輔助駕駛決策。而圖像的藝術(shù)風(fēng)格化轉(zhuǎn)換
主要是關(guān)于圖像風(fēng)格的改變,與目標(biāo)跟蹤技術(shù)無(wú)關(guān)。所以答案是ABD
O
44.關(guān)于視頻目標(biāo)分割以下說(shuō)法正確的是?
A、視頻目標(biāo)分割的輸出是二進(jìn)制的前景背景分割空間
B、視頻目標(biāo)分割毫無(wú)研究?jī)r(jià)值
C、視頻目標(biāo)分割技術(shù)只能在視頻的每一幀圖像中分割出一個(gè)目標(biāo)出
來(lái)D、目標(biāo)分割技術(shù)的目的是將感興趣的目標(biāo)分割出來(lái)正確答案:AD
45.基于模板的KBQA包括哪些步驟:
A、模板定義
B、語(yǔ)法樹(shù)構(gòu)建
C、模板生成
D、模板匹配
正確答案:ACD
答案解析:基于模板的KBQA主要步驟包括模板定義、模板生成和模板
匹配。模板定義是確定KBQA的基本問(wèn)題類型和結(jié)構(gòu)框架;模板生成是
根據(jù)輸入問(wèn)題從知識(shí)庫(kù)中提取相關(guān)信息并生成具體的模板實(shí)例;
模板匹配則是將生成的模板與知識(shí)庫(kù)進(jìn)行匹配以獲取答案。語(yǔ)法樹(shù)構(gòu)
建并不是基于模板的KBQA的核心步驟,所以不選B。
46.以下哪些評(píng)價(jià)指標(biāo)常用于評(píng)價(jià)文本情感分析效果
A、accuracy
B、precision
C、recall
D、fl
正確答案:ABCD
答案解析:準(zhǔn)確率(accuracy)用于衡量預(yù)測(cè)正確的樣本占總樣本的比
例,能直觀反映模型整體預(yù)測(cè)的準(zhǔn)確性;精確率(precision)表示預(yù)
測(cè)為正例的樣本中實(shí)際為正例的比例,體現(xiàn)了模型預(yù)測(cè)正例的精確程
度;召回率(recall)指實(shí)際為正例的樣本中被預(yù)測(cè)為正例的比例,反
映了模型對(duì)正例的捕捉能力;F1值綜合了精確率和召回率,是二者的
調(diào)和平均,能更全面地評(píng)估模型性能。這幾個(gè)指標(biāo)都常用于評(píng)價(jià)文本
情感分析效果。
47.圖像風(fēng)格轉(zhuǎn)換可應(yīng)用于?
A、手機(jī)拍照自動(dòng)生成藝術(shù)化的圖像或視頻
B、機(jī)器人的搜救功能C、P圖軟件自動(dòng)摳圖
D、人臉圖像動(dòng)漫化
正確答案:ACD
48.以下屬于現(xiàn)階段知識(shí)圖譜技術(shù)類別的有:
A、構(gòu)建技術(shù)
B、應(yīng)用技術(shù)C、展示技術(shù)
D、推理技術(shù)
正確答案:ABD
答案解析:現(xiàn)階段知識(shí)圖譜技術(shù)類別主要包括構(gòu)建技術(shù)、推理技術(shù)和
應(yīng)用技術(shù)。構(gòu)建技術(shù)用于創(chuàng)建知識(shí)圖譜;推理技術(shù)可基于知識(shí)圖譜進(jìn)
行推理;應(yīng)用技術(shù)則將知識(shí)圖譜應(yīng)用于具體場(chǎng)景。展示技術(shù)并非知識(shí)
圖譜的核心技術(shù)類別,它主要側(cè)重于將知識(shí)圖譜以合適的方式呈現(xiàn)給
用戶,不屬于與知識(shí)圖譜本身構(gòu)建、推理、應(yīng)用等同等地位的技術(shù)類
別。
49.以下關(guān)于句法分析的說(shuō)法正確的是:
A、一般來(lái)說(shuō),句法和語(yǔ)言是無(wú)關(guān)的。
B、句法是研究句子的每個(gè)組成部分和它們之間的組合方式。
C、句法分析就是指對(duì)句子中的詞語(yǔ)語(yǔ)法功能進(jìn)行分析。
D、在自然語(yǔ)言或者計(jì)算機(jī)語(yǔ)言中,句法分析是利用形式化的文法規(guī)
則對(duì)一個(gè)符號(hào)串進(jìn)行分析的過(guò)程。
正確答案:BCD
三、判斷題(共39題,每題1分,共39分)
1.NLP是人類和機(jī)器之間溝通的橋梁
A、正確
B、錯(cuò)誤
正確答案:A
2.對(duì)于文本分類來(lái)說(shuō),使用余弦相似度來(lái)計(jì)算KNN中的相似度比使用
歐式距離更合適
A、正確
B、錯(cuò)誤
正確答案:A
3.卷積層的特征相應(yīng)圖深度等于卷積核的個(gè)數(shù)。
A、正確
B、錯(cuò)誤
正確答案:A
4.“在KBQA中,設(shè)計(jì)問(wèn)題回復(fù)模板可以用來(lái)生成自然語(yǔ)言的回復(fù)”是
正確的嗎?
A、正確
B、錯(cuò)誤
正確答案:A5.自然語(yǔ)言處理是實(shí)現(xiàn)人工智能,通過(guò)圖靈測(cè)試的關(guān)鍵
A、正確
B、錯(cuò)誤
正確答案:A
6.BERT只能處理單語(yǔ)言下游任務(wù)
A、正確
B、錯(cuò)誤
正確答案:B
7.word2vec的詞向量是靜態(tài)的
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 車站環(huán)境衛(wèi)生管理制度
- 史丹利化肥貴港有限公司15t-h天燃?xì)饩o急備用鍋爐改建項(xiàng)目環(huán)境影響報(bào)告表
- 流程管理內(nèi)部培訓(xùn)
- 流程審批培訓(xùn)課件
- 流程專項(xiàng)稽核培訓(xùn)
- 活動(dòng)策劃書書寫培訓(xùn)
- 2024-2025學(xué)年江西省贛州市高一下學(xué)期期末考試歷史試題(解析版)
- 2026年醫(yī)生執(zhí)業(yè)技能考試診斷學(xué)測(cè)試題
- 2026年網(wǎng)絡(luò)社交媒體營(yíng)銷網(wǎng)絡(luò)營(yíng)銷策略題庫(kù)
- 2026年醫(yī)學(xué)基礎(chǔ)知識(shí)題庫(kù)與答案手冊(cè)
- 2026年甘肅省公信科技有限公司面向社會(huì)招聘80人(第一批)筆試備考試題及答案解析
- 大雪冰凍災(zāi)害應(yīng)急預(yù)案(道路結(jié)冰、設(shè)施覆冰)
- 通信設(shè)備維護(hù)與保養(yǎng)指南
- 2026年幼兒教師公招考試試題及答案
- 易方達(dá)基金公司招聘筆試題
- 2026年陜西眉太麟法高速項(xiàng)目招聘(11人)備考題庫(kù)及答案1套
- 2026年中國(guó)航空傳媒有限責(zé)任公司市場(chǎng)化人才招聘?jìng)淇碱}庫(kù)帶答案詳解
- 2026年交管12123學(xué)法減分復(fù)習(xí)考試題庫(kù)附答案(黃金題型)
- 雷火灸培訓(xùn)課件
- 未來(lái)停車新設(shè)施-探索機(jī)械式停車設(shè)備市場(chǎng)
- 林木清理施工方案(3篇)
評(píng)論
0/150
提交評(píng)論