版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
【答案】《人工智能數(shù)學(xué)思維與應(yīng)用》(杭州電子科技大學(xué))章節(jié)期末慕課答案有些題目順序不一致,下載后按鍵盤ctrl+F進(jìn)行搜索第一章高等數(shù)學(xué)在人工智能中的應(yīng)用第一章作業(yè)題1.(1)請敘述導(dǎo)數(shù)、積分在人工智能算法中有哪些應(yīng)用。(2)請敘述泰勒展開在人工智能中的應(yīng)用有哪些。(3)請敘述空間解析幾何在人工智能算法中有哪些應(yīng)用。大家選做其中一個題目即可。
答案:【(1)導(dǎo)數(shù)描述函數(shù)的變化率,在人工智能中主要用于優(yōu)化、動態(tài)系統(tǒng)建模和信號處理。積分用于量化累積效應(yīng),在概率、信號處理和優(yōu)化中不可或缺。答案抓住要點就可以,但不要寫入與導(dǎo)數(shù)和積分無關(guān)的內(nèi)容。可以到網(wǎng)上查找或用AI工具來查詢,但一定要經(jīng)過自己的編輯選擇來輸入。(2)泰勒展開在人工智能中通過局部線性化或高階近似,將復(fù)雜函數(shù)轉(zhuǎn)化為多項式進(jìn)行計算,顯著降低了計算復(fù)雜度。答案抓住要點就可以,但不要寫入與泰勒展開無關(guān)的內(nèi)容??梢缘骄W(wǎng)上查找或用AI工具來查詢,但一定要經(jīng)過自己的編輯選擇來輸入。(3)空間解析幾何通過坐標(biāo)系和代數(shù)方法研究三維空間幾何問題,為人工智能處理物理世界感知、幾何建模和空間推理提供了核心數(shù)學(xué)工具。答案抓住要點就可以,但不要寫入與空間解析幾何無關(guān)的內(nèi)容。可以到網(wǎng)上查找或用AI工具來查詢,但一定要經(jīng)過自己的編輯選擇來輸入?!康谝徽聹y驗題1.單選題:下列哪項不屬于導(dǎo)數(shù)在人工智能中的應(yīng)用?
選項:
A、線性回歸參數(shù)求解
B、生成對抗網(wǎng)絡(luò)(GAN)訓(xùn)練
C、特征重要性分析
D、強化學(xué)習(xí)策略優(yōu)化
答案:【線性回歸參數(shù)求解】2.單選題:反向傳播的主要步驟順序是?
選項:
A、前向傳播→計算損失→反向梯度→參數(shù)更新
B、前向傳播→參數(shù)更新→梯度計算
C、梯度計算→前向傳播→參數(shù)更新
D、反向梯度→前向傳播→參數(shù)更新
答案:【前向傳播→計算損失→反向梯度→參數(shù)更新】3.單選題:導(dǎo)數(shù)在人工智能中的核心作用是?
選項:
A、驅(qū)動梯度下降優(yōu)化參數(shù)
B、數(shù)據(jù)預(yù)處理
C、生成對抗樣本
D、特征工程
答案:【驅(qū)動梯度下降優(yōu)化參數(shù)】4.單選題:橢圓拋物面的直角坐標(biāo)方程是?
選項:
A、x2/a2+y2/b2=z
B、x2/a2+y2/b2-z2/c2=1
C、x2/a2+y2/b2+z2/c2=1
D、x2/a2-y2/b2=z
E、x2/a2-y2/b2-z2/c2=1
F、x2/a2-y2/b2+z2/c2=1
答案:【x2/a2+y2/b2=z】5.單選題:平面方程ax+by+cz+d=0的法向量是?
選項:
A、(a,b,c)
B、(d,a,b)
C、(b,c,a)
D、(c,a,b)
E、(a,c,b)
F、(d,c,b)
答案:【(a,b,c)】6.單選題:多元泰勒展開涉及以下哪個矩陣?
選項:
A、Hessian矩陣
B、梯度矩陣
C、協(xié)方差矩陣
D、單位矩陣
E、雅可比矩陣
F、拉普拉斯矩陣
答案:【Hessian矩陣】7.單選題:泰勒展開的展開點通常選擇在哪里?
選項:
A、任意點
B、函數(shù)的最大值點
C、函數(shù)的最小值點
D、原點
E、函數(shù)的拐點
F、函數(shù)的零點
答案:【任意點】8.單選題:三維空間向量的叉積運算結(jié)果是?
選項:
A、向量
B、標(biāo)量
C、矩陣
D、復(fù)數(shù)
E、多項式
F、概率分布
答案:【向量】9.單選題:張正友標(biāo)定法主要用于?
選項:
A、攝像機標(biāo)定
B、圖像分割
C、目標(biāo)檢測
D、語義分割
E、圖像超分辨率
F、視頻壓縮
答案:【攝像機標(biāo)定】10.單選題:解析幾何在人工智能中的核心價值是?
選項:
A、三維空間幾何問題代數(shù)化
B、離散數(shù)據(jù)建模
C、優(yōu)化神經(jīng)網(wǎng)絡(luò)訓(xùn)練
D、加速矩陣運算
E、增強圖像對比度
F、提升自然語言處理能力
答案:【三維空間幾何問題代數(shù)化】11.單選題:信號處理中的傅里葉變換涉及:
選項:
A、無限區(qū)間積分
B、拉普拉斯積分
C、有限差分
D、矩陣轉(zhuǎn)置
E、協(xié)方差計算
F、線性判別分析
答案:【無限區(qū)間積分】12.單選題:旋轉(zhuǎn)曲面生成的核心方法是?
選項:
A、母線繞軸旋轉(zhuǎn)
B、二維卷積
C、三維插值
D、遺傳算法優(yōu)化
E、粒子群優(yōu)化
F、模擬退火
答案:【母線繞軸旋轉(zhuǎn)】13.單選題:單葉雙曲面的直角坐標(biāo)方程是?
選項:
A、x2/a2+y2/b2-z2/c2=1
B、x2/a2+y2/b2+z2/c2=1
C、x2/a2-y2/b2=z
D、x2/a2-y2/b2-z2/c2=1
E、x2/a2+y2/b2=z
F、x2/a2-y2/b2+z2/c2=0
答案:【x2/a2+y2/b2-z2/c2=1】14.單選題:計算機視覺中的三維重建依賴哪種幾何方法?
選項:
A、投影幾何與三角測量
B、傅里葉變換
C、動態(tài)規(guī)劃
D、遺傳算法
E、支持向量機
F、主成分分析
答案:【投影幾何與三角測量】15.單選題:動力學(xué)建模中通過積分加速度得到:
選項:
A、速度
B、位移
C、力
D、扭矩
E、能量
F、功率
答案:【速度】16.單選題:當(dāng)使用交叉熵?fù)p失函數(shù)時,輸出層梯度的簡化形式是?
選項:
A、
B、
C、
D、
答案:【】17.單選題:牛頓-萊布尼茨公式的作用是:
選項:
A、連接定積分與原函數(shù)
B、計算數(shù)值積分
C、求解微分方程
D、優(yōu)化神經(jīng)網(wǎng)絡(luò)
E、進(jìn)行回歸分析
F、生成對抗樣本
答案:【連接定積分與原函數(shù)】18.單選題:強化學(xué)習(xí)中策略梯度定理的期望回報計算涉及:
選項:
A、定積分
B、動態(tài)規(guī)劃
C、卷積運算
D、邏輯回歸
E、貝葉斯網(wǎng)絡(luò)
答案:【定積分】19.單選題:泰勒展開的余項表示什么?
選項:
A、高階無窮小項
B、展開點處的函數(shù)值
C、一階導(dǎo)數(shù)項
D、二階導(dǎo)數(shù)項
E、多項式系數(shù)
F、展開階數(shù)
答案:【高階無窮小項】20.單選題:向量點積的幾何意義是?
選項:
A、投影長度與模長乘積
B、平行四邊形面積
C、垂直方向分量
D、旋轉(zhuǎn)角度
E、曲率計算
F、扭矩大小
答案:【投影長度與模長乘積】21.單選題:當(dāng)使用Sigmoid作為激活函數(shù)時,可能導(dǎo)致的問題是?
選項:
A、梯度消失
B、梯度爆炸
C、過擬合
D、計算復(fù)雜度高
答案:【梯度消失】22.單選題:拉普拉斯近似在貝葉斯推斷中使用幾階泰勒展開?
選項:
A、二階
B、零階
C、一階
D、三階
E、四階
F、五階
答案:【二階】23.單選題:高斯積分使用的節(jié)點是:
選項:
A、正交多項式根
B、等距采樣點
C、隨機采樣點
D、端點采樣
E、中點采樣
F、黃金分割點
答案:【正交多項式根】24.單選題:數(shù)值積分的機械求積公式形式為:
選項:
A、函數(shù)值加權(quán)和
B、函數(shù)導(dǎo)數(shù)積分
C、矩陣行列式
D、特征值分解
E、多項式展開
F、傅里葉級數(shù)
答案:【函數(shù)值加權(quán)和】25.單選題:復(fù)化辛普森方法要求子區(qū)間數(shù)必須是:
選項:
A、偶數(shù)
B、質(zhì)數(shù)
C、奇數(shù)
D、平方數(shù)
E、立方數(shù)
F、斐波那契數(shù)
答案:【偶數(shù)】26.單選題:定積分在人工智能中的核心作用是?
選項:
A、量化"累積效應(yīng)"
B、計算離散數(shù)據(jù)的平均值
C、加速矩陣乘法運算
D、消除圖像噪聲
E、優(yōu)化離散事件系統(tǒng)
F、計算特征向量
答案:【量化"累積效應(yīng)"】27.單選題:Hessian矩陣是由函數(shù)的幾階偏導(dǎo)數(shù)構(gòu)成的?
選項:
A、二階
B、一階
C、三階
D、四階
E、五階
F、零階
答案:【二階】28.單選題:泰勒展開在強化學(xué)習(xí)中的應(yīng)用是?
選項:
A、策略梯度方法
B、Q-learning
C、蒙特卡洛樹搜索
D、動態(tài)規(guī)劃
E、深度優(yōu)先搜索
F、廣度優(yōu)先搜索
答案:【策略梯度方法】29.單選題:在多層神經(jīng)網(wǎng)絡(luò)中,輸出層通常使用的激活函數(shù)是?
選項:
A、Softmax
B、ReLU
C、Tanh
D、Sigmoid
答案:【Softmax】30.單選題:下列哪個函數(shù)的導(dǎo)數(shù)公式為f′(x)=f(x)(1?f(x))?
選項:
A、Sigmoid
B、ReLU
C、Tanh
D、Softmax
答案:【Sigmoid】第二章線性代數(shù)在人工智能中的應(yīng)用第二章作業(yè)題1.圖像旋轉(zhuǎn)與恢復(fù)在圖像處理中,圖像變換是常見操作。假設(shè)存在表示圖像的二維矩陣A,大小為n×m,現(xiàn)對其進(jìn)行旋轉(zhuǎn)操作。(1)旋轉(zhuǎn)矩陣構(gòu)建(3分):構(gòu)建將圖像逆時針旋轉(zhuǎn)90度的線性變換矩陣R,寫出其具體形式,并解釋如何通過線性變換實現(xiàn)圖像旋轉(zhuǎn)。(2)圖像旋轉(zhuǎn)操作(3分):用構(gòu)建好的旋轉(zhuǎn)矩陣R對圖像矩陣A進(jìn)行旋轉(zhuǎn),得到旋轉(zhuǎn)后的圖像矩陣Arotated。寫出矩陣運算過程,以3×3圖像矩陣為例展示旋轉(zhuǎn)前后的變化。(3)圖像恢復(fù)嘗試(4分):若旋轉(zhuǎn)時圖像矩陣A部分元素變?yōu)?,在已知旋轉(zhuǎn)矩陣R的情況下,利用線性代數(shù)知識設(shè)計方法恢復(fù)丟失信息(假設(shè)丟失信息的元素較少且位置已知)。描述方法并通過Python代碼實現(xiàn)(可借助numpy庫)。音頻降噪處理音頻處理常遇到信號含噪問題。假設(shè)音頻信號為向量s,噪聲信號為向量n,接收到的含噪音頻信號為向量y=s+n。(1)向量內(nèi)積與噪聲判斷(3分):已知兩個音頻向量y1和y2,計算它們的向量內(nèi)積判斷相似程度。寫出向量內(nèi)積計算公式,并解釋內(nèi)積結(jié)果如何反映信號相似程度。(2)基于特征向量的降噪(3分):對含噪音頻信號向量y進(jìn)行特征向量分解,得到特征向量矩陣V和特征值矩陣Λ。解釋如何利用特征向量和特征值識別并去除噪聲(可假設(shè)噪聲對應(yīng)較小特征值)。(3)降噪算法實現(xiàn)(4分):用Python語言和numpy庫實現(xiàn)上述降噪算法。生成簡單音頻信號向量s和噪聲向量n,合成含噪音頻向量y,進(jìn)行降噪處理,輸出降噪前后的音頻向量并對比結(jié)果(可打印向量元素觀察變化)。(兩題任選一題作答即可)
答案:【1.旋轉(zhuǎn)矩陣構(gòu)建:構(gòu)建將圖像逆時針旋轉(zhuǎn)90度的線性變換矩陣R,寫出其具體形式,并解釋如何通過線性變換實現(xiàn)圖像旋轉(zhuǎn)。圖像旋轉(zhuǎn)操作:用構(gòu)建好的旋轉(zhuǎn)矩陣R對圖像矩陣A進(jìn)行旋轉(zhuǎn),得到旋轉(zhuǎn)后的圖像矩陣Arotated。寫出矩陣運算過程,以3×3圖像矩陣為例展示旋轉(zhuǎn)前后的變化。圖像恢復(fù)嘗試:若旋轉(zhuǎn)時圖像矩陣A部分元素變?yōu)?,在已知旋轉(zhuǎn)矩陣R的情況下,利用線性代數(shù)知識設(shè)計方法恢復(fù)丟失信息(假設(shè)丟失信息的元素較少且位置已知)。描述方法并通過Python代碼實現(xiàn)(可借助numpy庫)。】第二章測驗題1.單選題:在利用正交矩陣和Hadamard矩陣進(jìn)行信息傳輸時,信息傳輸?shù)牟襟E不包括()
選項:
A、Hadamard解擴(kuò)頻
B、Hadamard擴(kuò)頻
C、正交矩陣加密
D、快速傅里葉變換
E、矩陣基變換
答案:【快速傅里葉變換】2.單選題:正交矩陣在信息傳輸中的優(yōu)勢不包括以下哪一項()
選項:
A、可將發(fā)送的信息進(jìn)行加密,形成密文
B、能提高信息的傳輸速度
C、接收端利用其轉(zhuǎn)置矩陣精確還原信息
D、在多用戶傳輸中確保信號正交
E、能降低信息的傳輸速度
答案:【能提高信息的傳輸速度】3.單選題:若要使圖像整體變亮,對角矩陣主對角線元素應(yīng)()
選項:
A、都小于1
B、都大于1
C、都等于1
D、都為0
E、都為負(fù)數(shù)
答案:【都大于1】4.單選題:Hadamard矩陣是一種特殊的正交矩陣,n×n階Hadamard矩陣中每個元素只能是()
選項:
A、0或1
B、0或-1
C、+1或-1
D、任意實數(shù)
E、0
F、1
答案:【+1或-1】5.單選題:對于一個n×n階方陣Q,滿足什么條件時Q為正交矩陣()
選項:
A、
B、
C、
D、
答案:【】6.單選題:已知向量A=[1,2,3],向量B=[4,5,6],則A?B的值為()
選項:
A、1×4+2×5+3×6=32
B、1+4+2+5+3+6=21
C、1×2×3+4×5×6=126
D、(1+2+3)×(4+5+6)=108
E、1/4+2/5+3/6=1.15
F、4^1+5^2+6^3=245
答案:【1×4+2×5+3×6=32】7.單選題:在圖像顏色調(diào)整中,3x3對角矩陣主對角線上的元素a、b、c分別對應(yīng)()
選項:
A、紅、綠、藍(lán)通道縮放系數(shù)
B、紅、綠、黃通道縮放系數(shù)
C、藍(lán)、綠、紅通道縮放系數(shù)
D、黃、綠、藍(lán)通道縮放系數(shù)
E、黃、白、藍(lán)通道縮放系數(shù)
F、黃、黑、藍(lán)通道縮放系數(shù)
答案:【紅、綠、藍(lán)通道縮放系數(shù)】8.單選題:對角矩陣的特點是()
選項:
A、所有元素都為零
B、主對角線元素都為1
C、除對角線元素外其余元素均為零
D、非對角線元素都為1
E、對角線元素均為零,其余元素均為非零
答案:【除對角線元素外其余元素均為零】9.單選題:若矩陣A可逆,且,則A等于()
選項:
A、
B、
C、
D、
E、
答案:【】10.單選題:當(dāng)人臉解鎖系統(tǒng)中設(shè)置的閾值threshold=0.8,計算得到的綜合相似度combinedsimilarity=0.75,則判斷結(jié)果為()
選項:
A、支付成功!這張臉是主人的臉!
B、支付失??!這張臉可能是冒牌貨!
C、無法判斷
D、重新計算相似度
E、支付成功與失敗均有可能。
F、系統(tǒng)錯誤,無法判斷是支付成功還是失敗
答案:【支付失?。∵@張臉可能是冒牌貨!】11.單選題:在計算綜合相似度時,公式為combinedsimilarity=0.5×cosinesimilarity+0.5×(1?euclideandistance/(np.linalg.norm(featuresreg)+np.linalg.norm(featurescap))),其中0.5的作用是()
選項:
A、對余弦相似度進(jìn)行縮小
B、對距離相似度進(jìn)行放大
C、調(diào)整余弦相似度和距離相似度的權(quán)重
D、給定的固定值
E、隨機選擇的值,不對距離產(chǎn)生影響
答案:【調(diào)整余弦相似度和距離相似度的權(quán)重】12.單選題:若,當(dāng)時,向量A和B的相關(guān)性為()
選項:
A、最強,方向相反
B、最強,方向相同
C、最弱,方向相同
D、最弱,方向相反
E、反向增強
答案:【最強,方向相同】13.單選題:在Python代碼實現(xiàn)中,計算運動模糊矩陣的逆矩陣使用的函數(shù)是()
選項:
A、cv2.inv()
B、np.linalg.inv()
C、cv2.warpAffine()
D、np.array()
E、np.size()
答案:【np.linalg.inv()】14.單選題:以下關(guān)于可逆矩陣的說法,錯誤的是()
選項:
A、可逆矩陣一定是方陣
B、可逆矩陣的行列式不為0
C、所有方陣都可逆
D、若A可逆,則也可逆
E、所有矩陣都可逆
答案:【所有方陣都可逆】15.單選題:若矩陣A與B相似,存在可逆矩陣P使得()
選項:
A、
B、
C、
D、
E、
F、
答案:【】16.單選題:若運動模糊矩陣不可逆,以下可能用于恢復(fù)模糊圖像的方法是()
選項:
A、直接使用原運動模糊矩陣
B、對運動模糊矩陣求轉(zhuǎn)置后使用
C、對運動模糊矩陣求平方后使用
D、尋找其他近似可逆的矩陣替代
E、無法恢復(fù)
答案:【尋找其他近似可逆的矩陣替代】17.單選題:已知明文m=1100,密鑰k=1010,用異或運算加密后的密文是()。
選項:
A、0110
B、0011
C、0101
D、0000
E、1111
F、1000
答案:【0110】18.單選題:求解特征值時,對Av=λv變形為(A?λI)v=0后,下一步是()
選項:
A、令(A?λI)的跡為0
B、令(A?λI)的秩為0
C、取其系數(shù)矩陣行列式,令det(A?λI)=0
D、令(A?λI)的對角線元素之和為0
E、令(A+λI)的對角線元素之和為0
F、取其系數(shù)矩陣行列式,令det(A+λI)=0
答案:【取其系數(shù)矩陣行列式,令det(A?λI)=0】19.單選題:計算特征向量時,得到特征值λ后,將其代入()求解方程組得到特征向量
選項:
A、
B、
C、
D、
E、
答案:【】20.單選題:有限域GF(2)包含幾個元素?()
選項:
A、2個
B、3個
C、4個
D、5個
E、1個
F、0個
答案:【2個】21.單選題:數(shù)域需具備幾種運算?()
選項:
A、4種
B、3種
C、2種
D、1種
E、5種
答案:【4種】22.單選題:在(7,4)漢明碼中,信息序列有4位,生成的碼字有幾位?()
選項:
A、7
B、4
C、6
D、5
E、11
F、3
答案:【7】23.單選題:在個性化推薦中,當(dāng)R為評分矩陣時,商品-商品協(xié)方差矩陣C的計算方式是()
選項:
A、
B、
C、
D、
E、
F、
答案:【】24.單選題:在個性化推薦場景中,評分矩陣R的行數(shù)代表()
選項:
A、用戶數(shù)量
B、商品數(shù)量
C、特征向量數(shù)量
D、特征值數(shù)量
E、矩陣的行列式
F、矩陣的跡
答案:【用戶數(shù)量】25.單選題:在奇異值分解算法代碼中,np.Linalg.svd(channel)函數(shù)的作用是()
選項:
A、對通道矩陣進(jìn)行奇異值分解
B、計算通道矩陣的行列式
C、計算通道矩陣的特征值
D、對通道矩陣進(jìn)行轉(zhuǎn)置
E、對通道矩陣求行列式
答案:【對通道矩陣進(jìn)行奇異值分解】26.單選題:已知矩陣,的特征值對應(yīng)的特征向量是()
選項:
A、
B、
C、
D、
E、3不是特征值,所以不具有特征向量
答案:【】27.單選題:奇異值分解后,通過截斷較小的奇異值,可以()
選項:
A、增加數(shù)據(jù)量,降低視覺質(zhì)量
B、增加數(shù)據(jù)量,提高視覺質(zhì)量
C、減少數(shù)據(jù)量,提高視覺質(zhì)量,質(zhì)量變低
D、減少數(shù)據(jù)量,降低視覺質(zhì)量,但仍保持較高視覺質(zhì)量
E、減少數(shù)據(jù)量,提升視覺質(zhì)量,但仍保持較高視覺質(zhì)量
答案:【減少數(shù)據(jù)量,降低視覺質(zhì)量,但仍保持較高視覺質(zhì)量】28.單選題:當(dāng)對圖像進(jìn)行奇異值解后,如果保留大于5%奇異值時,圖像()
選項:
A、細(xì)節(jié)較為接近原始質(zhì)量
B、細(xì)節(jié)喪失嚴(yán)重
C、存儲空間無變化
D、視覺質(zhì)量大幅下降
E、視覺質(zhì)量大幅提升
答案:【細(xì)節(jié)較為接近原始質(zhì)量】第三章概率統(tǒng)計在人工智能中的應(yīng)用第三章測驗題1.單選題:隱馬爾可夫模型(HMM)主要解決什么問題?
選項:
A、不可觀測狀態(tài)的推斷
B、復(fù)雜分布采樣
C、局部依賴建模
D、動態(tài)規(guī)劃優(yōu)化
答案:【不可觀測狀態(tài)的推斷】2.單選題:馬爾可夫鏈的穩(wěn)態(tài)分布滿足以下哪個方程?
選項:
A、
B、W+P=I
C、WP=PW
D、P^N=I
答案:【】3.單選題:馬爾可夫鏈的穩(wěn)態(tài)分布存在的充分條件是?
選項:
A、轉(zhuǎn)移矩陣所有元素非負(fù)
B、轉(zhuǎn)移矩陣是對稱矩陣
C、轉(zhuǎn)移矩陣的行列式不為零
D、存在正整數(shù)N,使得P^N所有元素大于零
答案:【存在正整數(shù)N,使得P^N所有元素大于零】4.單選題:提升市場占有率的策略不包括?
選項:
A、會員制度增加自身轉(zhuǎn)移概率
B、定向廣告吸引其他品牌用戶
C、降低自身轉(zhuǎn)移概率
D、促銷活動提升用戶粘性
答案:【降低自身轉(zhuǎn)移概率】5.單選題:以下哪種回歸模型適用于高維數(shù)據(jù)且存在多重共線性的情況?
選項:
A、嶺回歸
B、線性回歸
C、Lasso回歸
D、邏輯回歸
E、多項式回歸
F、非線性回歸
答案:【嶺回歸】6.單選題:Shapiro-Wilk檢驗的核心思想是:
選項:
A、檢驗方差齊性
B、比較均值與標(biāo)準(zhǔn)差
C、計算數(shù)據(jù)與理論正態(tài)分布的相關(guān)性
D、評估數(shù)據(jù)偏度
E、計算數(shù)據(jù)與t分布的相關(guān)性
F、評估數(shù)據(jù)的k階矩是否收斂于總體矩
答案:【計算數(shù)據(jù)與理論正態(tài)分布的相關(guān)性】7.單選題:點估計的方法包括哪些?
選項:
A、t分布和樞軸量
B、矩估計和極大似然估計
C、區(qū)間估計和假設(shè)檢驗
D、回歸分析和方差分析
E、區(qū)間估計和數(shù)字特征
F、均值與方差估計
答案:【矩估計和極大似然估計】8.單選題:在邏輯回歸模型中,違約概率的置信區(qū)間可以通過什么方法計算?
選項:
A、矩估計
B、Bootstrap方法
C、t分布
D、極大似然估計
E、點估計
F、區(qū)間估計
答案:【Bootstrap方法】9.單選題:邏輯回歸模型的核心是?
選項:
A、S形曲線與概率轉(zhuǎn)換
B、線性回歸
C、方差分析
D、決策樹
E、聚類分析
F、非線性回歸
答案:【S形曲線與概率轉(zhuǎn)換】10.單選題:中心極限定理在隨機森林中如何穩(wěn)定概率估計?
選項:
A、利用多數(shù)投票服從正態(tài)分布特性
B、減少訓(xùn)練次數(shù)
C、增加特征數(shù)量
D、通過單一決策樹預(yù)測
E、減少特征數(shù)量
F、通過兩個決策樹預(yù)測
答案:【利用多數(shù)投票服從正態(tài)分布特性】11.單選題:在XGBoost算法中,優(yōu)化預(yù)測值準(zhǔn)確度的關(guān)鍵指標(biāo)是:
選項:
A、均方誤差MSE
B、方差
C、期望
D、正則化項
E、k階矩
F、平方根誤差
答案:【均方誤差MSE】12.單選題:XGBoost算法中,用于控制過擬合的正則化方法是:
選項:
A、L2正則化
B、L1正則化
C、彈性網(wǎng)絡(luò)正則化
D、嶺回歸正則化
E、L3正則化
F、Lasso回歸正則化
答案:【L2正則化】13.單選題:BM25得分公式中的IDF代表:
選項:
A、逆文檔頻率
B、初始文檔頻率
C、內(nèi)部文檔頻率
D、詞語頻率
E、外部文檔頻率
F、順文檔頻率
答案:【逆文檔頻率】14.單選題:使用人工智能推薦文檔的主要原因是:
選項:
A、信息過載
B、計算能力提升
C、用戶偏好變化
D、網(wǎng)絡(luò)速度加快
E、信息存儲能力不足
F、社會發(fā)展需要
答案:【信息過載】15.單選題:隨機森林通過什么技術(shù)降低過擬合風(fēng)險?
選項:
A、自助采樣和隨機特征子集
B、增加決策樹深度
C、減少訓(xùn)練樣本量
D、使用單一特征
E、使用多個特征
F、增加訓(xùn)練樣本量
答案:【自助采樣和隨機特征子集】16.單選題:中心極限定理(CLT)的核心結(jié)論是?
選項:
A、樣本均值的分布趨近于正態(tài)分布
B、樣本方差趨近于總體方差
C、樣本中位數(shù)趨近于總體均值
D、樣本標(biāo)準(zhǔn)差趨近于總體標(biāo)準(zhǔn)差
E、樣本k階矩趨近于總體k階矩
F、樣本均值的分布趨近于均值分布
答案:【樣本均值的分布趨近于正態(tài)分布】17.單選題:在人工智能中,利用已知的知識預(yù)先推斷事物未來發(fā)展趨勢的過程被稱為:
選項:
A、數(shù)據(jù)挖掘
B、數(shù)據(jù)分析
C、預(yù)測
D、統(tǒng)計決策
E、統(tǒng)計推斷
F、濾波
答案:【預(yù)測】18.單選題:在50人的班級中,至少兩位同學(xué)生日相同的概率大約是:
選項:
A、75%
B、97%
C、50%
D、100%
E、無法計算
F、15%
答案:【97%】19.單選題:在BM25算法中,參數(shù)k1的作用是:
選項:
A、調(diào)整詞頻的影響
B、調(diào)整文檔長度的影響
C、調(diào)整逆文檔頻率的影響
D、調(diào)整查詢長度的影響
E、調(diào)整查詢語字母個數(shù)的影響
F、調(diào)整文檔長度的影響
答案:【調(diào)整詞頻的影響】20.單選題:高斯混合模型(GMM)在圖像分割中的優(yōu)勢是?
選項:
A、可捕捉漸變效果
B、邊界清晰
C、適合復(fù)雜背景分離
D、計算效率高
E、程序?qū)崿F(xiàn)簡單
F、適用所有類別
答案:【可捕捉漸變效果】21.單選題:當(dāng)方差分析結(jié)果顯示P值<0.05時,說明?
選項:
A、至少有一組均值與其他組存在顯著差異
B、所有組均值無顯著差異
C、數(shù)據(jù)不滿足正態(tài)性假設(shè)
D、方差齊性假設(shè)不成立
E、所有組的均值與其他組均存在顯著差異
答案:【至少有一組均值與其他組存在顯著差異】22.單選題:方差分析在AI模型中的應(yīng)用場景不包括?
選項:
A、數(shù)據(jù)可視化
B、數(shù)據(jù)降維
C、特征選擇與重要性評估
D、模型性能對比與調(diào)優(yōu)
E、實驗設(shè)計與因果推斷
答案:【數(shù)據(jù)可視化】23.單選題:方差分析的核心目的是?
選項:
A、比較多個總體均值的顯著差異
B、分析數(shù)據(jù)分布形態(tài)
C、檢驗數(shù)據(jù)獨立性
D、計算變量間的相關(guān)系數(shù)
E、獲得數(shù)據(jù)的波動情況
F、檢驗數(shù)據(jù)是否服從某個分布
答案:【比較多個總體均值的顯著差異】24.單選題:聚類分析的核心定義是什么?
選項:
A、將數(shù)據(jù)分為若干組,同簇相似度高,不同簇差異大
B、基于標(biāo)簽的監(jiān)督學(xué)習(xí)方法
C、依賴專家經(jīng)驗劃分簇
D、基于特征的劃分簇的方法
E、基于數(shù)量的劃分簇的方法
F、基于數(shù)據(jù)質(zhì)量的劃分簇的方法
答案:【將數(shù)據(jù)分為若干組,同簇相似度高,不同簇差異大】25.單選題:以下哪種回歸模型適用于因變量為二分類的情況?
選項:
A、邏輯回歸
B、線性回歸
C、非線性回歸
D、嶺回歸
E、廣義線性回歸
F、多項式回歸
答案:【邏輯回歸】26.單選題:聚類數(shù)量確定困難屬于聚類分析的哪種不足?
選項:
A、數(shù)據(jù)隱形假設(shè)局限
B、對初始條件敏感
C、無法處理動態(tài)數(shù)據(jù)
D、結(jié)果解釋困難
E、數(shù)據(jù)類別太多無法處理
答案:【數(shù)據(jù)隱形假設(shè)局限】27.單選題:以下哪種評估指標(biāo)衡量信息共享程度?
選項:
A、標(biāo)準(zhǔn)互信息(NMI)
B、準(zhǔn)確率(ACC)
C、F1值
D、蘭德指數(shù)(RI)
E、準(zhǔn)確率(ACC)及F1值
F、蘭德指數(shù)(RI)及F值
答案:【標(biāo)準(zhǔn)互信息(NMI)】28.單選題:假設(shè)檢驗的基本流程正確順序是:①計算統(tǒng)計量②提出假設(shè)③確定顯著性水平④做出決策
選項:
A、②→③→①→④
B、③→②→①→④
C、①→②→③→④
D、②→①→③→④
E、③→①→②→④
F、④→①→②→③
答案:【②→③→①→④】29.單選題:關(guān)于嶺回歸(RidgeRegression)和Lasso回歸(LeastAbsoluteShrinkageandSelectionOperator)的主要區(qū)別不包含()
選項:
A、嶺回歸使用L2正則化,而Lasso回歸使用L1正則化。
B、嶺回歸的損失函數(shù)是可微的,而Lasso回歸的損失函數(shù)在零點不可微。
C、嶺回歸的解可以通過解析法(閉式解)直接求得,而Lasso回歸的解通常需要借助迭代優(yōu)化算法。
D、嶺回歸傾向于產(chǎn)生所有特征都比較小的稠密模型,而Lasso回歸傾向于產(chǎn)生稀疏模型,即會將一些特征的系數(shù)壓縮為零。
E、嶺回歸對異常值更不敏感,而Lasso回歸對異常值非常敏感。
F、嶺回歸不能用于處理特征多重共線性問題,而Lasso回歸可以完美地解決這一問題。
答案:【嶺回歸對異常值更不敏感,而Lasso回歸對異常值非常敏感?!?0.單選題:處理分布檢驗未通過的方法不包括:
選項:
A、改用非參數(shù)模型
B、數(shù)據(jù)標(biāo)準(zhǔn)化
C、調(diào)整模型假設(shè)
D、刪除異常值
E、數(shù)據(jù)規(guī)一化
答案:【數(shù)據(jù)標(biāo)準(zhǔn)化】第三章作業(yè)題1.題目一:請自行獲得三段文字,使用合適的算法判斷它們的重要性,進(jìn)行合適的排序,給出相關(guān)的理論結(jié)果和程序及運算結(jié)果。題目二:給出馬爾可夫鏈的重要性質(zhì)、穩(wěn)態(tài)分布存在的判斷標(biāo)準(zhǔn)。收集現(xiàn)實社會的數(shù)據(jù),給出基于馬爾可夫鏈來進(jìn)行市場占有率預(yù)測結(jié)果,進(jìn)而給出程序及運行結(jié)果。(兩題任選一題即可)
答案:【程序和結(jié)果正確給10分,其他酌情給分。】第四章數(shù)值分析在人工智能中的應(yīng)用第四章作業(yè)題1.(1)請比較二分法、不動點迭代法和牛頓法三種非線性方程求解方法的優(yōu)缺點。(2)請改進(jìn)課程提供的用于非線性方程組求解的Python程序,使其可用于一般的n個變量n個方程的非線性方程組。并在程序中給出一個實例,要求運行通過后上傳程序和運行的結(jié)果,同學(xué)將根據(jù)你的程序進(jìn)行運行并比對你得到的結(jié)果是否一致。(3)請說明插值和擬合分別適合怎樣的實驗數(shù)據(jù)來構(gòu)造函數(shù)。請在上面三個題目中選擇一個題目,完成后提交在答題區(qū)。
答案:【(1)參考答案為:二分法:線性收斂,需初始區(qū)間端點異號,優(yōu)點是穩(wěn)定可靠,缺點是速度慢。不動點迭代法:收斂性依賴迭代函數(shù)導(dǎo)數(shù),線性或超線性收斂,適用于方程可變形為。牛頓法:二階收斂,但需導(dǎo)數(shù)信息,對初始值敏感。(2)參考答案為:根據(jù)程序運行后比對你看到的結(jié)果是否一致。如果程序不能運行則不給分。如果程序和課程網(wǎng)站提供的一致,給5份。(3)答題要點:插值適合數(shù)據(jù)量較少但較為精確,擬合適合數(shù)據(jù)量較大且存在一定的誤差?!康谒恼聹y驗題1.單選題:數(shù)據(jù)插值在人工智能中的拓展應(yīng)用不包括?
選項:
A、數(shù)據(jù)增強
B、實時數(shù)據(jù)預(yù)測
C、噪聲平滑
D、模型參數(shù)調(diào)優(yōu)
答案:【模型參數(shù)調(diào)優(yōu)】2.單選題:三次樣條插值的優(yōu)勢是?
選項:
A、計算速度最快
B、保證全局光滑性
C、適用于分類任務(wù)
D、無需已知數(shù)據(jù)點
答案:【保證全局光滑性】3.單選題:在雙線性插值代碼中,x_ratio和y_ratio的作用是?
選項:
A、計算新圖像尺寸
B、確定像素顏色
C、縮放原圖坐標(biāo)到新圖像
D、防止數(shù)組越界
答案:【縮放原圖坐標(biāo)到新圖像】4.單選題:數(shù)據(jù)插值在時間序列處理中的作用是?
選項:
A、填補缺失時間點
B、檢測異常值
C、減少數(shù)據(jù)維度
D、提高計算速度
答案:【填補缺失時間點】5.單選題:關(guān)于二元函數(shù)插值的描述,錯誤的是?
選項:
A、必須精確通過所有已知點
B、可以是局部或全局插值
C、插值函數(shù)必須全局光滑
D、常用于圖像處理
答案:【插值函數(shù)必須全局光滑】6.單選題:雙線性插值常用于以下哪個領(lǐng)域?
選項:
A、語音識別
B、圖像縮放
C、自然語言處理
D、機器學(xué)習(xí)模型訓(xùn)練
答案:【圖像縮放】7.單選題:雙線性插值的步驟是?
選項:
A、先x方向插值,再y方向插值
B、僅y方向插值
C、同時進(jìn)行x和y方向插值
D、僅x方向插值
答案:【先x方向插值,再y方向插值】8.單選題:數(shù)據(jù)插值在人工智能中的主要作用是?
選項:
A、數(shù)據(jù)分類
B、數(shù)據(jù)降維
C、解決數(shù)據(jù)缺失或分布不均
D、特征選擇
答案:【解決數(shù)據(jù)缺失或分布不均】9.單選題:牛頓法在求解非線性方程組時,如何更新解向量?
選項:
A、通過求解線性方程組
B、直接使用迭代公式
C、梯度下降
D、蒙特卡洛采樣
E、特征值分解
F、拉格朗日乘數(shù)法
答案:【通過求解線性方程組】10.單選題:大規(guī)模稀疏線性方程組的首選解法是?
選項:
A、迭代法
B、高斯消去法
C、矩陣求逆
D、克萊姆法則
E、直接法
F、最小二乘法
答案:【迭代法】11.單選題:正規(guī)方程的解存在的條件是?
選項:
A、系數(shù)矩陣滿秩
B、數(shù)據(jù)點嚴(yán)格共線
C、噪聲為零
D、特征數(shù)等于樣本數(shù)
答案:【系數(shù)矩陣滿秩】12.單選題:不動點迭代法的收斂條件是?
選項:
A、迭代函數(shù)導(dǎo)數(shù)的絕對值<1
B、初始值必須為零
C、函數(shù)為凸函數(shù)
D、方程有唯一解
E、導(dǎo)數(shù)存在且連續(xù)
F、矩陣正定
答案:【迭代函數(shù)導(dǎo)數(shù)的絕對值<1】13.單選題:最小二乘法擬合直線時,目標(biāo)是最小化?
選項:
A、殘差平方和
B、絕對誤差之和
C、預(yù)測值與真實值的差
D、模型復(fù)雜度
答案:【殘差平方和】14.單選題:數(shù)據(jù)擬合在人工智能中的核心作用是?
選項:
A、通過數(shù)學(xué)函數(shù)或統(tǒng)計模型逼近數(shù)據(jù)的內(nèi)在規(guī)律
B、數(shù)據(jù)分類
C、模型參數(shù)優(yōu)化
D、數(shù)據(jù)可視化
答案:【通過數(shù)學(xué)函數(shù)或統(tǒng)計模型逼近數(shù)據(jù)的內(nèi)在規(guī)律】15.單選題:非線性方程組的不動點迭代法需要將方程轉(zhuǎn)化為?
選項:
A、x=φ(x)
B、Ax=b
C、f(x)=0
D、矩陣形式
E、微分方程
F、積分形式
答案:【x=φ(x)】16.單選題:以下哪種方法可加速迭代法收斂?
選項:
A、引入松弛因子
B、增大初始值
C、減少迭代次數(shù)
D、使用更復(fù)雜的激活函數(shù)
E、增加矩陣密度
F、提高容差
答案:【引入松弛因子】17.單選題:深度學(xué)習(xí)中梯度下降法的本質(zhì)是求解?
選項:
A、非線性優(yōu)化問題
B、線性方程組
C、特征值分解
D、矩陣求逆
E、概率分布估計
F、傅里葉變換
答案:【非線性優(yōu)化問題】18.單選題:數(shù)據(jù)擬合在人工智能中的核心作用是?
選項:
A、通過數(shù)學(xué)函數(shù)或統(tǒng)計模型逼近數(shù)據(jù)的內(nèi)在規(guī)律
B、數(shù)據(jù)分類
C、模型參數(shù)優(yōu)化
D、數(shù)據(jù)可視化
答案:【通過數(shù)學(xué)函數(shù)或統(tǒng)計模型逼近數(shù)據(jù)的內(nèi)在規(guī)律】19.單選題:二分法求解方程f(x)=0的收斂條件是?(其中f(x)為連續(xù)函數(shù))
選項:
A、f(a)f(b)<0
B、f(a)f(b)>0
C、函數(shù)單調(diào)遞增
D、函數(shù)二階可導(dǎo)
E、初始值足夠接近根
F、導(dǎo)數(shù)非零
答案:【f(a)f(b)<0】20.單選題:對于n個數(shù)據(jù)點,k次多項式擬合最多需要多少個系數(shù)?
選項:
A、k+1
B、n
C、k
D、n+1
答案:【k+1】21.單選題:雅可比迭代法的迭代公式基于系數(shù)矩陣A的哪種矩陣分解?
選項:
A、A=D+L+U
B、A=L+U
C、A=QR
D、A=LU
E、A=SVD
答案:【A=D+L+U】22.單選題:正規(guī)方程的建立基于以下哪一條件?
選項:
A、偏導(dǎo)數(shù)為零
B、函數(shù)值最大
C、殘差絕對值最小
D、特征無關(guān)性
答案:【偏導(dǎo)數(shù)為零】23.單選題:稀疏矩陣的特點是?
選項:
A、大部分元素為零
B、所有元素非零
C、對角線元素全為1
D、行列式為1
E、秩為1
F、對稱正定
答案:【大部分元素為零】24.單選題:以下哪種方法屬于直接法?
選項:
A、喬爾斯基分解
B、雅可比迭代法
C、高斯-賽德爾迭代法
D、逐次超松弛法
E、共軛梯度法
F、梯度下降法
答案:【喬爾斯基分解】25.單選題:線性方程組Ax=b的解存在且唯一的條件是?
選項:
A、A滿秩
B、A為方陣
C、b為零向量
D、A為對稱矩陣
E、A為稀疏矩陣
F、A的行列式為零
答案:【A滿秩】26.單選題:電路網(wǎng)絡(luò)建模中,電流計算依賴以下哪個定律?
選項:
A、歐姆定律與基爾霍夫電壓定律
B、牛頓運動定律
C、麥克斯韋方程組
D、傅里葉變換
E、熱力學(xué)定律
F、胡克定律
答案:【歐姆定律與基爾霍夫電壓定律】27.單選題:高斯-賽德爾迭代法的特點是?
選項:
A、使用最新計算的變量值
B、僅使用前一次迭代值
C、需要松弛因子
D、適用于所有矩陣
E、收斂速度最慢
F、無法處理稀疏矩陣
答案:【使用最新計算的變量值】28.單選題:機器人逆運動學(xué)問題需解哪種方程?
選項:
A、非線性方程組
B、線性方程組
C、微分方程
D、積分方程
E、差分方程
F、矩陣方程
答案:【非線性方程組】29.單選題:強化學(xué)習(xí)中貝爾曼方程的求解屬于?
選項:
A、非線性方程
B、線性規(guī)劃
C、動態(tài)規(guī)劃
D、蒙特卡洛模擬
E、決策樹構(gòu)建
F、遺傳算法
答案:【非線性方程】30.單選題:牛頓迭代法的迭代公式是?
選項:
A、
B、
C、
D、
E、
F、
答案:【】第五章優(yōu)化理論在人工智能中的應(yīng)用第五章測驗題1.單選題:在調(diào)整梯度下降算法步長時,如果損失函數(shù)沒有變小,應(yīng)該()
選項:
A、減小步長
B、增大步長
C、保持步長不變
D、重新選擇初始值
答案:【增大步長】2.單選題:以下屬于梯度下降類算法的是()
選項:
A、決策樹算法
B、隨機梯度下降(SGD)
C、聚類算法
D、主成分分析算法
答案:【隨機梯度下降(SGD)】3.單選題:與最小二乘法相比,梯度下降法的特點是()
選項:
A、不需要選擇步長
B、計算解析解
C、需要選擇步長且迭代求解
D、樣本量越大計算優(yōu)勢越明顯
答案:【需要選擇步長且迭代求解】4.單選題:梯度下降算法中,初始值不同會導(dǎo)致()
選項:
A、算法無法收斂
B、獲得的最小值可能不同
C、步長需要重新調(diào)整
D、算法復(fù)雜度增加
答案:【獲得的最小值可能不同】5.單選題:在梯度下降算法中,步長如果太大,可能會導(dǎo)致()
選項:
A、迭代速度太慢
B、錯過最優(yōu)解
C、只能得到局部最小值
D、算法無法運行
答案:【錯過最優(yōu)解】6.單選題:梯度下降算法針對的是()
選項:
A、無約束最大化問題
B、無約束最小化問題
C、有約束最大化問題
D、有約束最小化問題
答案:【無約束最小化問題】7.單選題:梯度下降算法求得的最小值通常是()
選項:
A、全局最小值
B、局部最小值
C、最大值
D、不一定,可能是全局或局部最小值
答案:【局部最小值】8.單選題:梯度下降法在機器學(xué)習(xí)中的主要作用是()
選項:
A、數(shù)據(jù)預(yù)處理
B、優(yōu)化模型參數(shù)
C、數(shù)據(jù)分類
D、數(shù)據(jù)可視化
答案:【優(yōu)化模型參數(shù)】9.單選題:知識圖譜在人工智能領(lǐng)域不被應(yīng)用于以下哪個方面()
選項:
A、圖像識別
B、語義搜索
C、智能問答
D、推薦系統(tǒng)
答案:【圖像識別】10.單選題:平行機調(diào)度問題中,參與完成任務(wù)的處理機具有的特點是()
選項:
A、作用完全相同,任務(wù)在任一處理機上處理花費時間相同
B、作用不同,任務(wù)在不同處理機上處理花費時間不同
C、處理機數(shù)量無限
D、處理機只能處理特定任務(wù)
答案:【作用完全相同,任務(wù)在任一處理機上處理花費時間相同】11.單選題:整數(shù)規(guī)劃的計算復(fù)雜度屬于()
選項:
A、NP-困難
B、P問題
C、多項式時間可解
D、以上都不對
答案:【NP-困難】12.單選題:人工智能應(yīng)用于進(jìn)程調(diào)度時,通過智能體與環(huán)境交互,學(xué)習(xí)最優(yōu)的進(jìn)程調(diào)度決策,這屬于()
選項:
A、強化學(xué)習(xí)優(yōu)化調(diào)度策略
B、深度學(xué)習(xí)預(yù)測調(diào)度
C、智能任務(wù)分配
D、能效優(yōu)化
答案:【強化學(xué)習(xí)優(yōu)化調(diào)度策略】13.單選題:在深度學(xué)習(xí)模型訓(xùn)練中,選擇優(yōu)化算法時應(yīng)考慮()
選項:
A、實際問題和數(shù)據(jù)集特性
B、僅數(shù)據(jù)集的大小
C、僅實際問題
D、模型的名稱
答案:【實際問題和數(shù)據(jù)集特性】14.單選題:最小二乘法的目標(biāo)是()
選項:
A、最小化所有誤差的平方和
B、最大化所有誤差的平方和
C、最大化誤差的絕對值之和
D、最小化誤差的絕對值之和
答案:【最小化所有誤差的平方和】15.單選題:線性規(guī)劃中“線性”的含義不包括以下哪種情況()
選項:
A、包含變量之間的乘積
B、變量之間以一次方形式相互作用
C、變量與常數(shù)以一次方形式相互作用
D、不包含指數(shù)函數(shù)關(guān)系
答案:【包含變量之間的乘積】16.單選題:在機器學(xué)習(xí)領(lǐng)域,以下哪種模型的訓(xùn)練可以歸結(jié)為凸優(yōu)化問題()
選項:
A、支持向量機(SVM)
B、深度神經(jīng)網(wǎng)絡(luò)
C、決策樹
D、隨機森林
答案:【支持向量機(SVM)】17.單選題:非凸優(yōu)化問題的特點是()
選項:
A、目標(biāo)函數(shù)或約束條件中至少有一個是非凸的
B、目標(biāo)函數(shù)和約束條件都是凸的
C、只有目標(biāo)函數(shù)是非凸的
D、只有約束條件是非凸的
答案:【目標(biāo)函數(shù)或約束條件中至少有一個是非凸的】18.單選題:整數(shù)規(guī)劃應(yīng)用研究的發(fā)展趨勢不包括()
選項:
A、只專注于理論研究,不涉及實際應(yīng)用
B、與多學(xué)科交叉融合日益增強
C、朝著大規(guī)?;旌险麛?shù)規(guī)劃模型的算法設(shè)計方向發(fā)展
D、在生產(chǎn)以及生活的更多方面得到應(yīng)用
答案:【只專注于理論研究,不涉及實際應(yīng)用】19.單選題:整數(shù)規(guī)劃可行解具有什么特性()
選項:
A、離散性
B、連續(xù)性
C、隨機性
D、確定性
答案:【離散性】20.單選題:損失函數(shù)的作用是()
選項:
A、量化模型預(yù)測與真實值之間的差異
B、量化模型訓(xùn)練速度
C、確定模型的參數(shù)數(shù)量
D、提高模型的復(fù)雜度
答案:【量化模型預(yù)測與真實值之間的差異】21.單選題:有向圖的入度和出度之和與邊數(shù)的關(guān)系是()
選項:
A、入度和出度之和為邊數(shù)的2倍
B、有向圖的入度和出度之和與邊數(shù)的關(guān)系是()
C、入度和出度之和為邊數(shù)的一半
D、入度和出度之和與邊數(shù)無關(guān)
答案:【入度和出度之和為邊數(shù)的2倍】22.單選題:一個有6個頂點的完全圖,其邊數(shù)為()
選項:
A、15
B、12
C、18
D、21
答案:【15】23.單選題:首次提出深度學(xué)習(xí)概念的是()
選項:
A、GeoffreyHinton等人
B、DavidRumelhart等人
C、FrankRosenblatt
D、WarrenMcCulloch和WalterPitts
答案:【GeoffreyHinton等人】24.單選題:圖的邊或節(jié)點上的標(biāo)簽可以被視為()
選項:
A、權(quán)重或標(biāo)號
B、變量或常量
C、函數(shù)或方程
D、數(shù)組或列表
答案:【權(quán)重或標(biāo)號】25.單選題:深度學(xué)習(xí)中的優(yōu)化問題通常是什么類型()
選項:
A、非凸優(yōu)化問題
B、凸優(yōu)化問題
C、既不是凸優(yōu)化也不是非凸優(yōu)化
D、部分是凸優(yōu)化,部分是非凸優(yōu)化
答案:【非凸優(yōu)化問題】26.單選題:最早提出神經(jīng)網(wǎng)絡(luò)概念的是()
選項:
A、WarrenMcCulloch和WalterPitts
B、FrankRosenblatt
C、DavidRumelhart
D、GeoffreyHinton
答案:【W(wǎng)arrenMcCulloch和WalterPitts】27.單選題:最優(yōu)化模型的三要素不包括()
選項:
A、損失函數(shù)
B、決策變量
C、目標(biāo)函數(shù)
D、約束條件
答案:【損失函數(shù)】28.單選題:利用深度學(xué)習(xí)預(yù)測調(diào)度時,可使用以下哪種模型進(jìn)行時間序列預(yù)測()
選項:
A、LSTM、Transformer等模型
B、決策樹模型
C、隨機森林模型
D、支持向量機模型
答案:【LSTM、Transformer等模型】29.單選題:精確算法在大規(guī)模問題上存在的主要問題是()
選項:
A、效率通常較低
B、無法找到解
C、精度不夠
D、計算結(jié)果不準(zhǔn)確
答案:【效率通常較低】30.單選題:正則化中引入拉格朗日乘子的目的是()
選項:
A、將帶有約束條件的優(yōu)化問題轉(zhuǎn)化為無約束優(yōu)化問題
B、增加模型復(fù)雜度
C、提高模型的過擬合能力
D、增加模型訓(xùn)練時間
答案:【將帶有約束條件的優(yōu)化問題轉(zhuǎn)化為無約束優(yōu)化問題】31.單選題:拉格朗日乘子法是用于尋找()的方法
選項:
A、變量受一個或多個條件所限制的多元函數(shù)的極值
B、無約束多元函數(shù)的極值
C、一元函數(shù)的極值
D、所有函數(shù)的最值
答案:【變量受一個或多個條件所限制的多元函數(shù)的極值】32.單選題:高斯使用什么方法計算出谷神星的軌道,使得天文界可以預(yù)測其精確位置()
選項:
A、最小二乘法
B、拉格朗日乘子法
C、線性回歸法
D、多項式回歸法
答案:【最小二乘法】33.單選題:資源調(diào)度問題是一個經(jīng)典的優(yōu)化問題,其目的是()
選項:
A、在有限資源情況下安排項目任務(wù),最大化某種指標(biāo)
B、隨意分配資源
C、在無限資源情況下安排任務(wù)
D、不考慮資源限制安排任務(wù)
答案:【在有限資源情況下安排項目任務(wù),最大化某種指標(biāo)】34.單選題:線性規(guī)劃問題如果存在最優(yōu)解,最優(yōu)解通常位于()
選項:
A、可行域的頂點或邊界上
B、可行域內(nèi)部
C、可行域外部
D、任意位置
答案:【可行域的頂點或邊界上】35.單選題:均方誤差(MSE)屬于()
選項:
A、損失函數(shù)
B、最優(yōu)化模型
C、優(yōu)化算法?
D、深度學(xué)習(xí)框架
答案:【損失函數(shù)】36.單選題:在機器學(xué)習(xí)中,最小二乘法可用于訓(xùn)練以下哪種模型()
選項:
A、線性回歸
B、決策樹
C、隨機森林
D、神經(jīng)網(wǎng)絡(luò)
答案:【線性回歸】37.單選題:凸優(yōu)化問題的目標(biāo)函數(shù)和約束函數(shù)具有什么特點()
選項:
A、目標(biāo)函數(shù)和約束函數(shù)都是凸函數(shù)
B、目標(biāo)函數(shù)是凸函數(shù),約束函數(shù)是非凸函數(shù)
C、目標(biāo)函數(shù)是非凸函數(shù),約束函數(shù)是凸函數(shù)
D、目標(biāo)函數(shù)和約束函數(shù)都是非凸函數(shù)
答案:【目標(biāo)函數(shù)和約束函數(shù)都是凸函數(shù)】38.單選題:在人工智能中,通過調(diào)整模型參數(shù)以最小化損失函數(shù)屬于()
選項:
A、最優(yōu)化模型在機器學(xué)習(xí)中的應(yīng)用
B、最優(yōu)化模型在強化學(xué)習(xí)中的應(yīng)用
C、最優(yōu)化模型在超參數(shù)優(yōu)化中的應(yīng)用
D、最優(yōu)化模型在深度學(xué)習(xí)中的應(yīng)用
答案:【最優(yōu)化模型在機器學(xué)習(xí)中的應(yīng)用】39.單選題:目前圖機器學(xué)習(xí)模型存在的問題是()
選項:
A、可解釋性仍未解決
B、模型過于簡單
C、可解釋性已完全解決
D、只適用于動態(tài)圖網(wǎng)絡(luò)
答案:【可解釋性仍未解決】40.單選題:拉普拉斯矩陣L的定義是()
選項:
A、L=D-W(W為鄰接矩陣,D為加權(quán)度矩陣)
B、L=W-D
C、L=D+W
D、L=W×D
答案:【L=D-W(W為鄰接矩陣,D為加權(quán)度矩陣)】41.單選題:鄰接矩陣的元素用于表示()
選項:
A、兩個節(jié)點之間是否有邊及邊的權(quán)重
B、節(jié)點的位置
C、節(jié)點的度數(shù)
D、圖的類型
答案:【兩個節(jié)點之間是否有邊及邊的權(quán)重】42.單選題:機器學(xué)習(xí)能夠直接識別的是()
選項:
A、矩陣或向量
B、圖
C、節(jié)點
D、連接
答案:【矩陣或向量】43.單選題:提出反向傳播算法可以訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)的是()
選項:
A、DavidRumelhart等人
B、GeoffreyHinton等人
C、WarrenMcCulloch和WalterPitts
D、FrankRosenblatt
答案:【DavidRumelhart等人】44.單選題:無圈的連通圖被稱為()
選項:
A、樹
B、森林
C、Petersen圖
D、二部圖
答案:【樹】45.單選題:圖論是應(yīng)用廣泛的數(shù)學(xué)分支,在計算機科學(xué)中圖被視為()
選項:
A、一種數(shù)據(jù)結(jié)構(gòu)
B、一種算法
C、一種編程語言
D、一種硬件設(shè)備
答案:【一種數(shù)據(jù)結(jié)構(gòu)】第五章作業(yè)題1.(1)在機器學(xué)習(xí)中,不同的優(yōu)化算法適用于不同的場景,請結(jié)合線性規(guī)劃、凸優(yōu)化、梯度下降算法相關(guān)知識,闡述如何根據(jù)具體問題選擇合適的優(yōu)化算法?(2)圖論在人工智能領(lǐng)域有廣泛應(yīng)用,請結(jié)合圖的表示、圖機器學(xué)習(xí)以及圖的性質(zhì)與分類等知識,分析圖論如何為人工智能提供支持?
答案:【問題1答案參考要點:線性規(guī)劃:若問題能抽象為在線性約束條件下求解線性目標(biāo)函數(shù)的優(yōu)化問題,例如資源分配中對人力、物力等資源的線性約束與利潤、成本等線性目標(biāo)的優(yōu)化,可考慮線性規(guī)劃。。問題2答案參考要點:圖的表示:圖不能直接被機器學(xué)習(xí)模型識別,需轉(zhuǎn)化為向量或矩陣形式,如鄰接矩陣、鄰接列表、拉普拉斯矩陣等。鄰接矩陣?yán)诳焖俨樵児?jié)點連接關(guān)系和表示帶權(quán)圖,為機器學(xué)習(xí)處理圖數(shù)據(jù)提供基礎(chǔ)數(shù)據(jù)結(jié)構(gòu),便于模型理解圖中節(jié)點和邊的信息。圖機器學(xué)習(xí):圖數(shù)據(jù)包含豐富關(guān)系數(shù)據(jù),傳統(tǒng)機器學(xué)習(xí)常忽略,圖機器學(xué)習(xí)則充分利用這些關(guān)系。其實現(xiàn)方法包括基于圖數(shù)據(jù)結(jié)構(gòu)結(jié)合傳統(tǒng)機器學(xué)習(xí)和利用深度神經(jīng)網(wǎng)絡(luò)(GNN)。問題3答案參考要點:拉格朗日乘子法:適用于變量受一個或多個條件限制的多元函數(shù)極值問題。它引入拉格朗日乘數(shù),將有約束優(yōu)化問題轉(zhuǎn)化為無約束方程組的極值問題。以SVM為例,其原始問題是帶不等式約束的二次規(guī)劃問題,通過引入拉格朗日乘子構(gòu)造拉格朗日函數(shù),轉(zhuǎn)化為對偶問題求解。?!康诹挛⒎址匠淘谌斯ぶ悄苤械膽?yīng)用第六章作業(yè)題1.1.請舉例說明微分方程在AI中的一個實際應(yīng)用場景,并簡述其作用原理。2.差分方程如何用于解決AI中的時序預(yù)測問題?請結(jié)合庫存管理案例簡要說明。3.對比說明微分方程和差分方程在AI應(yīng)用中的主要區(qū)別,并各舉一個典型應(yīng)用例子。注意:3個題選一個做即可。
答案:【答案參考1可參照無人機避障、神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率優(yōu)化等課件中的案例或課件外的案例來闡述答案參考2可從離散時間建模、動態(tài)調(diào)整等角度回答答案參考3可從連續(xù)/離散系統(tǒng)建模的角度分析根據(jù)作業(yè)中對原理、對建模背景分析或者模型的準(zhǔn)確度和認(rèn)真度給分(1-10分)】第六章測驗題1.單選題:基于ODE的文本生成模型中,狀態(tài)變量s(t)表示()
選項:
A、詞頻統(tǒng)計
B、詞嵌入向量
C、注意力權(quán)重
D、語法樹結(jié)構(gòu)
E、語義角色標(biāo)簽
F、語言模型參數(shù)
答案:【詞嵌入向量】2.單選題:擴(kuò)散模型中ODE的初始狀態(tài)對應(yīng)于()
選項:
A、噪聲數(shù)據(jù)
B、生成樣本
C、輸入條件
D、中間特征
E、模型權(quán)重
F、損失函數(shù)
答案:【噪聲數(shù)據(jù)】3.單選題:下列哪種ODE求解方法屬于二階精度?
選項:
A、歐拉法
B、改進(jìn)歐拉法
C、四階龍格-庫塔法
D、牛頓迭代法
E、梯度下降法
F、預(yù)測-校正法
答案:【改進(jìn)歐拉法】4.單選題:ODE在強化學(xué)習(xí)中的主要應(yīng)用是()
選項:
A、策略梯度優(yōu)化
B、狀態(tài)空間建模
C、動作空間探索
D、獎勵函數(shù)設(shè)計
E、經(jīng)驗回放緩沖
F、目標(biāo)網(wǎng)絡(luò)更新
答案:【狀態(tài)空間建?!?.單選題:常微分方程(ODE)在生成模型中的核心作用是什么?
選項:
A、提升生成速度
B、增加生成模型的復(fù)雜度
C、控制隱藏狀態(tài)連續(xù)演變
D、減少模型計算資源
E、生成離散序列
F、替代注意力機制
答案:【控制隱藏狀態(tài)連續(xù)演變】6.單選題:無人機群協(xié)同追蹤任務(wù)中,狀態(tài)估計面臨的挑戰(zhàn)包括()
選項:
A、傳感器零漂移
B、完全觀測信息
C、確定性環(huán)境
D、單目標(biāo)跟蹤
E、高帶寬通信
F、無噪聲信號
答案:【傳感器零漂移】7.單選題:差分方程與微分方程的本質(zhì)區(qū)別在于()
選項:
A、變量類型(離散/連續(xù))
B、方程階數(shù)
C、初始條件數(shù)量
D、解的存在唯一性
E、數(shù)值計算復(fù)雜度
F、應(yīng)用領(lǐng)域
答案:【變量類型(離散/連續(xù))】8.單選題:無人機避障控制中,碰撞檢測的關(guān)鍵步驟是()
選項:
A、閔可夫斯基和與碰撞體積膨脹
B、計算無人機質(zhì)量中心
C、障礙物顏色識別
D、GPS信號強度分析
E、氣壓高度計校準(zhǔn)
F、陀螺儀標(biāo)定
答案:【閔可夫斯基和與碰撞體積膨脹】9.單選題:對比差分方程模型與微分方程模型在庫存管理中的適用性,以下說法正確的是()
選項:
A、差分方程天然適配離散銷售數(shù)據(jù)
B、差分方程更適合處理連續(xù)時間數(shù)據(jù)
C、微分方程能更精確描述瞬時變化
D、微分方程無需初始條件約束
E、兩者在庫存場景中完全等價
F、差分方程計算復(fù)雜度更高
答案:【差分方程天然適配離散銷售數(shù)據(jù)】10.單選題:差分方程的核心作用是描述哪種系統(tǒng)的變量變化規(guī)律?()
選項:
A、離散時間系統(tǒng)
B、連續(xù)時間系統(tǒng)
C、非線性系統(tǒng)
D、概率系統(tǒng)
E、動態(tài)規(guī)劃系統(tǒng)
F、靜態(tài)分析系統(tǒng)
答案:【離散時間系統(tǒng)】11.單選題:無人機避障控制流程中,狀態(tài)估計的輸入數(shù)據(jù)通常包括()
選項:
A、激光雷達(dá)點云
B、遙感影像
C、社交媒體數(shù)據(jù)
D、電商交易記錄
E、天氣預(yù)報數(shù)據(jù)
F、股票市場波動
答案:【激光雷達(dá)點云】12.單選題:神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,學(xué)習(xí)率η的取值范圍通常為()
選項:
A、(0,1)
B、(-∞,+∞)
C、[0,1]
D、[-1,1]
E、(1,+∞)
F、任意實數(shù)
答案:【(0,1)】13.單選題:在強化學(xué)習(xí)等動態(tài)環(huán)境中,更適合采用哪種學(xué)習(xí)率衰減策略?()
選項:
A、指數(shù)衰減
B、固定學(xué)習(xí)率
C、階梯衰減
D、余弦退火
E、自適應(yīng)Adam
F、隨機衰減
答案:【指數(shù)衰減】14.單選題:計算序列{100,120,125,120}的一階差分序列為()
選項:
A、[20,5,-5]
B、[10,15,10]
C、[20,15,5]
D、[-20,-5,5]
E、[5,10,15]
F、[15,10,5]
答案:【[20,5,-5]】15.單選題:動態(tài)庫存管理中,差分方程結(jié)合實時數(shù)據(jù)更新的主要優(yōu)勢是()
選項:
A、快速響應(yīng)需求變化
B、減少計算資源消耗
C、提高模型泛化能力
D、實現(xiàn)精準(zhǔn)長期預(yù)測
E、降低存儲硬件成本
F、簡化決策流程
答案:【快速響應(yīng)需求變化】16.單選題:高階ODE數(shù)值解法的通用步驟是()
選項:
A、將其轉(zhuǎn)化為一階ODE組后求解
B、直接求解高階導(dǎo)數(shù)
C、使用拉格朗日乘子法
D、應(yīng)用遺傳算法優(yōu)化參數(shù)
E、構(gòu)建深度信念網(wǎng)絡(luò)
F、采用蒙特卡洛積分
答案:【將其轉(zhuǎn)化為一階ODE組后求解】17.單選題:物理信息神經(jīng)網(wǎng)絡(luò)(PINN)在無人機避障中的主要作用是()
選項:
A、預(yù)測障礙物加速度
B、生成對抗性環(huán)境模擬
C、優(yōu)化神經(jīng)網(wǎng)絡(luò)超參數(shù)
D、加速蒙特卡洛采樣
E、提升圖像渲染幀率
F、實現(xiàn)多智能體通信
答案:【預(yù)測障礙物加速度】18.單選題:教學(xué)文檔中提到的“策略梯度優(yōu)化”主要應(yīng)用于()
選項:
A、優(yōu)化強化學(xué)習(xí)中的動作選擇策略
B、提升ODE的數(shù)值穩(wěn)定性
C、加速神經(jīng)網(wǎng)絡(luò)的訓(xùn)練速度
D、解決ODE的初值問題
E、減少計算圖的復(fù)雜度
F、提高數(shù)據(jù)標(biāo)注效率
答案:【優(yōu)化強化學(xué)習(xí)中的動作選擇策略】19.單選題:下列哪個方程屬于三階ODE的示例()
選項:
A、
B、
C、
D、
E、
F、
答案:【】20.單選題:在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中,以下哪種學(xué)習(xí)率策略屬于預(yù)設(shè)固定衰減節(jié)奏?()
選項:
A、余弦退火
B、指數(shù)衰減
C、自適應(yīng)Adam
D、動態(tài)調(diào)整
E、隨機采樣
答案:【余弦退火】21.單選題:學(xué)習(xí)率(LearningRate)在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要作用是()
選項:
A、調(diào)節(jié)參數(shù)更新的步長
B、控制模型復(fù)雜度
C、防止梯度爆炸
D、加速矩陣運算
E、提升模型泛化能力
F、減少過擬合風(fēng)險
答案:【調(diào)節(jié)參數(shù)更新的步長】22.單選題:以下哪種方法常用于求解非線性微分方程組的數(shù)值解()
選項:
A、歐拉法
B、雅可比迭代
C、牛頓-拉弗森法
D、主成分分析
E、t-SNE降維
F、K-means聚類
答案:【歐拉法】23.單選題:高階常微分方程(ODE)的定義中,未知函數(shù)的最高階導(dǎo)數(shù)要求是
選項:
A、≥2
B、≤1
C、≥3
D、導(dǎo)數(shù)階數(shù)無限制
答案:【≥2】24.單選題:在強化學(xué)習(xí)任務(wù)中,為何推薦使用指數(shù)衰減型學(xué)習(xí)率?()
選項:
A、平滑參數(shù)更新避免震蕩
B、提升探索階段的隨機性
C、加快策略評估速度
D、增強獎勵信號敏感性
E、減少環(huán)境交互次數(shù)
F、防止策略退化
答案:【平滑參數(shù)更新避免震蕩】25.單選題:神經(jīng)常微分方程(NeuralODEs)的核心思想是()
選項:
A、將ODE的解參數(shù)化為神經(jīng)網(wǎng)絡(luò)的輸出
B、用神經(jīng)網(wǎng)絡(luò)直接求解ODE的數(shù)值解
C、通過ODE優(yōu)化神經(jīng)網(wǎng)絡(luò)的權(quán)重
D、將神經(jīng)網(wǎng)絡(luò)嵌入到PID控制器中
E、用傅里葉變換加速ODE求解
F、結(jié)合LSTM處理時間序列
答案:【將ODE的解參數(shù)化為神經(jīng)網(wǎng)絡(luò)的輸出】期末考試《人工智能數(shù)學(xué)思維與應(yīng)用》客觀題試卷1.單選題:無人機避障控制流程中,狀態(tài)估計的輸入數(shù)據(jù)通常包括
選項:
A、激光雷達(dá)點云
B、遙感影像
C、社交媒體數(shù)據(jù)
D、電商交易記錄
E、天氣預(yù)報數(shù)據(jù)
F、股票市場數(shù)據(jù)
答案:【激光雷達(dá)點云】2.單選題:高階常微分方程(ODE)的定義中,未知函數(shù)的最高階導(dǎo)數(shù)要求是
選項:
A、≥2
B、≤1
C、≥3
D、導(dǎo)數(shù)階數(shù)無限制
答案:【≥2】3.單選題:常微分方程(ODE)在生成模型中的核心作用是什么?
選項:
A、控制隱藏狀態(tài)連續(xù)演變
B、提升生成速度
C、增加生成模型的復(fù)雜度
D、減少模型計算資源
E、生成離散序列
F、替代注意力機制
答案:【控制隱藏狀態(tài)連續(xù)演變】4.單選題:梯度下降法在機器學(xué)習(xí)中的主要作用是
選項:
A、優(yōu)化模型參數(shù)
B、數(shù)據(jù)預(yù)處理
C、數(shù)據(jù)分類
D、數(shù)據(jù)可視化
答案:【優(yōu)化模型參數(shù)】5.單選題:精確算法在大規(guī)模問題上存在的主要問題是
選項:
A、效率通常較低
B、無法找到解
C、精度不夠
D、計算結(jié)果不準(zhǔn)確
答案:【效率通常較低】6.單選題:凸優(yōu)化問題的性質(zhì)不包括以下哪一項
選項:
A、原問題和對偶問題的最優(yōu)值不相等
B、任一局部最優(yōu)解都是全局最優(yōu)解
C、往往可以分解為更小的子問題
D、許多凸優(yōu)化問題具有強對偶性
答案:【原問題和對偶問題的最優(yōu)值不相等】7.單選題:機器學(xué)習(xí)中損失函數(shù)的作用是:
選項:
A、量化模型預(yù)測與真實值之間的差異
B、量化模型訓(xùn)練速度
C、確定模型的參數(shù)數(shù)量
D、提高模型的復(fù)雜度
答案:【量化模型預(yù)測與真實值之間的差異】8.單選題:鄰接矩陣的元素用于表示
選項:
A、兩個節(jié)點之間是否有邊及邊的權(quán)重
B、節(jié)點的位置
C、節(jié)點的度數(shù)
D、圖的類型
答案:【兩個節(jié)點之間是否有邊及邊的權(quán)重】9.單選題:差分方程與微分方程的本質(zhì)區(qū)別在于
選項:
A、差分方程的變量是離散型的,微分方程的變量是連續(xù)型的
B、方程階數(shù)不同
C、初始條件數(shù)量不同
D、解的存在唯一性
E、數(shù)值計算復(fù)雜度
答案:【差分方程的變量是離散型的,微分方程的變量是連續(xù)型的】10.單選題:學(xué)習(xí)率(LearningRate)在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中的主要作用是
選項:
A、調(diào)節(jié)參數(shù)更新的步長
B、控制模型復(fù)雜度
C、防止梯度爆炸
D、加速矩陣運算
E、提升模型泛化能力
F、減少過擬合風(fēng)險
答案:【調(diào)節(jié)參數(shù)更新的步長】11.單選題:疾病診斷問題的本質(zhì)是?
選項:
A、分類問題
B、回歸分析
C、聚類分析
D、降維處理
答案:【分類問題】12.單選題:在人工智能中,利用已知的知識預(yù)先推斷事物未來發(fā)展趨勢的過程被稱為:
選項:
A、預(yù)測
B、數(shù)據(jù)分析
C、數(shù)據(jù)挖掘
D、決策
答案:【預(yù)測】13.單選題:BM25算法的全稱是:
選項:
A、BestMatching25
B、BasicMatching25
C、BayesianMatching25
D、BinaryMatching25
答案:【BestMatching25】14.單選題:在50人的班級中,至少兩位同學(xué)生日相同的概率大約是:
選項:
A、97%
B、50%
C、75%
D、100%
答案:【97%】15.單選題:Hadamard矩陣是一種特殊的正交矩陣,n×n階Hadamard矩陣中每個元素只能是:
選項:
A、+1或-1
B、0或1
C、0或-1
D、任意實數(shù)
答案:【+1或-1】16.單選題:在信息傳輸過程中,核心問題是
選項:
A、如何提高信息的準(zhǔn)確性和安全性
B、如何提高信息的傳輸速度
C、如何降低信息的傳輸成本
D、如何增加信息的傳輸量
答案:【如何提高信息的準(zhǔn)確性和安全性】17.單選題:方陣A可對角化的條件是:
選項:
A、A相似于一個對角矩陣D
B、A是對稱矩陣
C、A的所有元素都相等
D、A的行列式為0
答案:【A相似于一個對角矩陣D】18.單選題:對角矩陣的特點是
選項:
A、除對角線元素外其余元素均為零
B、所有元素都為零
C、主對角線元素都為1
D、非對角線元素都為1
答案:【除對角線元素外其余元素均為零】19.單選題:在無向圖中,兩個端點重合為一個頂點的邊被稱為
選項:
A、環(huán)
B、重邊
C、平行邊
D、奇點
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 施工安全日常監(jiān)督和定期檢查制度
- 數(shù)據(jù)資產(chǎn)負(fù)債確權(quán)登記制度
- 教職工宿舍消防安全制度
- 押運公司封包制度
- 揚塵治理交底制度
- 建筑工地安全隱患有獎舉報制度
- 雨課堂學(xué)堂在線學(xué)堂云《電力電纜設(shè)計原理(哈爾濱理工)》單元測試考核答案
- 重慶經(jīng)貿(mào)職業(yè)學(xué)院《物理化學(xué)實驗(下)》2023-2024學(xué)年第二學(xué)期期末試卷
- 廣西民族大學(xué)《鄉(xiāng)土地理齊魯風(fēng)貌》2023-2024學(xué)年第二學(xué)期期末試卷
- 山西國際商務(wù)職業(yè)學(xué)院《環(huán)境科學(xué)實驗Ⅱ(環(huán)境監(jiān)測)》2023-2024學(xué)年第二學(xué)期期末試卷
- 注塑車間人員管理改善方案
- 唐代莫高窟寶相花紋樣在現(xiàn)代服飾設(shè)計中的應(yīng)用研究
- 臺州三門縣國有企業(yè)招聘筆試題庫2025
- 2025年市場監(jiān)管局招聘崗位招聘面試模擬題及案例分析解答
- 單杠引體向上教學(xué)課件
- 高級消防設(shè)施操作員試題及答案-1
- 2025年海南省政府采購評審專家考試題庫(含答案)
- 國企財務(wù)審批管理辦法
- 新型農(nóng)業(yè)經(jīng)營主體法律制度完善研究
- 高中國際班數(shù)學(xué)試卷
- 北京市2019-2024年中考滿分作文131篇
評論
0/150
提交評論