版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
注:不含主觀題第1題機(jī)器學(xué)習(xí)(深度學(xué)習(xí))系統(tǒng)中通常將數(shù)據(jù)集劃分為訓(xùn)練集和測試集,其中被用來學(xué)習(xí)得到系統(tǒng)的參數(shù)取值的是A訓(xùn)練集(trainingset)B測試集(testingset)C訓(xùn)練集(trainingset)和測試集(testingset)D其它選項(xiàng)都不對第2題測試集(testingset)用于最終報(bào)告模型的評(píng)價(jià)結(jié)果,因此在訓(xùn)練階段測試集中的數(shù)據(jù)一般是否可以出現(xiàn)在訓(xùn)練集中?A不可以B可以第3題超參數(shù)和參數(shù)的區(qū)別。參數(shù)一般是模型需要根據(jù)訓(xùn)練數(shù)據(jù)可以自動(dòng)學(xué)習(xí)出的變量。超參數(shù)一般就是根據(jù)經(jīng)驗(yàn)確定預(yù)設(shè)的變量。下面哪些是超參數(shù)?A深度學(xué)習(xí)模型的權(quán)重,偏差B深度學(xué)習(xí)的學(xué)習(xí)速率、人工神經(jīng)網(wǎng)絡(luò)的層數(shù)C深度學(xué)習(xí)的迭代次數(shù)D深度學(xué)習(xí)的每層神經(jīng)元的個(gè)數(shù)正確答案:BCD第4題K折交叉驗(yàn)證通常將數(shù)據(jù)集隨機(jī)分為k個(gè)子集。下列關(guān)于K折交叉驗(yàn)證說法錯(cuò)誤的是A每次將其中一個(gè)子集作為測試集,剩下k-1個(gè)子集作為訓(xùn)練集進(jìn)行訓(xùn)練B每次將其中一個(gè)子集作為訓(xùn)練集,剩下k-1個(gè)子集作為測試集進(jìn)行測試C劃分時(shí)有多種方法,例如對非平衡數(shù)據(jù)可以用分層采樣,就是在每一份子集中都保持和原始數(shù)據(jù)集相同的類別比例D留一法即k=1的k折交叉驗(yàn)證。留一法計(jì)算最繁瑣,但樣本利用率最高。適合于小樣本的情況第5題已知如下定義:Truepositives(TP):
被正確地劃分為正例的個(gè)數(shù),即實(shí)際為正例且被分類器劃分為正例的實(shí)例數(shù)(樣本數(shù));Falsenegatives(FN):被錯(cuò)誤地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為正例但被分類器劃分為負(fù)例的實(shí)例數(shù);Falsepositives(FP):被錯(cuò)誤地劃分為正例的個(gè)數(shù),即實(shí)際為負(fù)例但被分類器劃分為正例的實(shí)例數(shù);True
negatives(TN):
被正確地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為負(fù)例且被分類器劃分為負(fù)例的實(shí)例數(shù)。
則下面定義正確的是:A分類準(zhǔn)確率
Accuracy=(TP+TN)/(P+N)B精確率
Precision=TP/(TP+FP)C召回率
Recall=TP/PD以上都不對正確答案:ABC第6題F值的公式為Fβ=[(1+β2)*Precision*Recall]/(β2*Precision+Recall),即其為準(zhǔn)確率和召回率的調(diào)和平均。如果二者(即準(zhǔn)確率和召回率)同等重要,則為AF1BF2CF0.5DF3第7題ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)描繪了分類器在
fprate(錯(cuò)誤的正例,橫軸)和tprate(真正正例,縱軸)間的trade-off(權(quán)衡)。下面說法正確的是:AA.(縱軸)敏感性高=漏診率低,
而(橫軸)特異性低=誤診率高B(縱軸)敏感性高=漏診率高,
而(橫軸)特異性低=誤診率高C(縱軸)敏感性高=漏診率高,
而(橫軸)特異性低=誤診率低D(縱軸)敏感性高=漏診率低,
而(橫軸)特異性低=誤診率低第8題關(guān)于ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)中AUC(AreaUnderCurve)說法正確的是A定義為ROC曲線下的面積BAUC值提供了分類器的一個(gè)整體數(shù)值。通常AUC越大,分類器更好C取值范圍為[0,1]D其它都不對正確答案:ABC第9題關(guān)于
Cohen'skappa和Fleiss'kappa的區(qū)別:ACohen’skappa主要用于衡量兩個(gè)評(píng)價(jià)者(
raters
)之間的一致性(agreement).B如果評(píng)價(jià)者多于2人時(shí),可以考慮使用Fleiss'kappa.C二者沒有本質(zhì)區(qū)別,可以等價(jià)D其它選項(xiàng)都不對正確答案:AB第10題關(guān)于
Cohen'skappa取值的含義,下列錯(cuò)誤的是:A1其取值通常在-1和+1之間B1其取值為+1,說明一致性最好C1其取值越大,說明一致性越好D1其取值越小,說明一致性越好第二講作業(yè)第1題自然語言處理中為了計(jì)算文檔之間的相似度,往往需進(jìn)行文檔的量化表示,下面關(guān)于BOW(即Bag-Of-Wordsmodel)和VSM(VectorSpaceModel)的描述正確的是:ABOW,即詞袋模型。即為了計(jì)算文檔之間的相似度,假設(shè)可以忽略文檔內(nèi)的單詞順序和語法、句法等要素,將其僅僅看作是若干個(gè)詞匯的集合。BVSM,即向量空間模型。是一種表示文本文檔的數(shù)學(xué)模型。將每個(gè)文檔表示成同一向量空間的向量。C在VSM,即向量空間模型中,所有文檔的向量維度的數(shù)目都相同。D其它選項(xiàng)都不對正確答案:ABC第2題為了在python程序中進(jìn)行英文自然語言的處理,如詞語切分(Tokenization)詞干提取(Stemming)等工作,需要使用的導(dǎo)入模塊語句通常為:Aimportmatplotlib.pyplotaspltBimportnltkCimportnumpyasnpDfromsklearnimportsvm,datasets第3題為了進(jìn)行中文的分詞或者詞性標(biāo)注等處理,可以使用的導(dǎo)入模塊語句為:Aimportmatplotlib.pyplotaspltBimportnumpyasnpCimport
jiebaDfromsklearnimportsvm,datasets第4題對于文本“Iliketoeatapple”,則下列關(guān)于N-gram的描述正確的是A其Uni-gram為“I”,“l(fā)ike”,
“to”,“eat”,“apple”B其Bi-gram為“Ilike”,“l(fā)iketo”,
“toeat”,“eatapple”C其Tri-gram為“Iliketo”,“l(fā)iketoeat”,
“toeatapple”D其它選項(xiàng)都不對正確答案:ABC第5題關(guān)于特征降維方法有線性判別分析(LDA)和主成分分析法(PCA),錯(cuò)誤的是ALDA和PCA的共同點(diǎn)是,都可以將原始的樣本映射到維度更低的樣本空間BLDA是為了讓映射后的樣本有最好的分類性能。即LDA是一種有監(jiān)督的降維方法CPCA是為了讓映射后的樣本具有最大的發(fā)散性,即PCA是一種無監(jiān)督的降維方法DLDA和PCA都是有監(jiān)督的降維方法第6題對于下面的一段python程序,計(jì)算的是向量之間的importnumpyasnpx=np.random.random(5)y=np.random.random(5)sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))A1歐氏距離B1余弦相似度C1歐式相似度D1馬修相關(guān)系數(shù)第7題對于下面的一段python程序,sim中保存的是向量之間的:importnumpyasnpx=np.random.random(5)y=np.random.random(5)fromscipy.spatial.distanceimportpdistX=np.vstack([x,y])sim=1-pdist(X,'cosine')A1歐氏距離B1余弦相似度C1余弦距離D1馬修相關(guān)系數(shù)第8題下面的一段python程序的目的是使用主成分分析法(principalcomponentanalysis)
對iris數(shù)據(jù)集進(jìn)行特征降維,以便于數(shù)據(jù)的二維平面可視化。則其中空格處應(yīng)該填充的數(shù)字為?
importmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.datasetsimportload_irisdata=load_iris()X=data.datay=data.targetpca=PCA(n_components=
)reduced_X=pca.fit_transform(X)A1B2C3D4第9題
下圖是使用主成分分析法對iris數(shù)據(jù)集進(jìn)行特征降維并進(jìn)行二維平面可視化的結(jié)果。則為了繪圖,需要使用的導(dǎo)入語句是下面哪一種?
Aimportmatplotlib.pyplotaspltBfromsklearn.decompositionimportPCACfromsklearn.ldaimportLDADimportnumpyasnp第10題
下面哪一條語句是用于導(dǎo)入nltk中的英文詞性標(biāo)注的模塊?Afromnltkimportword_tokenizeBfromnltk.stemimportPorterStemmerCfromnltkimportpos_tagD
fromnltk.corpusimporttreebank第三講作業(yè)第1題關(guān)于線性模型,下列說法錯(cuò)誤的是A1狹義線性模型通常是指自變量與因變量之間呈按比例、成直線的關(guān)系。一階導(dǎo)數(shù)不為常數(shù)B1線性通常表現(xiàn)為1次曲線C1廣義線性是線性模型的擴(kuò)展,主要通過聯(lián)結(jié)函數(shù),使預(yù)測值落在響應(yīng)變量的變幅內(nèi)D1非線性一般指不按比例、不成直線的關(guān)系,一階導(dǎo)數(shù)不為常數(shù)第2題下列哪些是常見的非線性回歸模型?A2次以上的多項(xiàng)式
B雙曲線模型C冪函數(shù)模型D指數(shù)函數(shù)模型正確答案:ABDC第3題下列關(guān)于梯度下降(Gradientdescent)法的描述錯(cuò)誤的是
A1梯度下降是利用一階的梯度信息找到代價(jià)函數(shù)局部最優(yōu)解的一種方法B1通常會(huì)先初始化一組參數(shù)值,然后在這個(gè)值之上,用梯度下降法去求出下一組的值。由于是梯度下降的,所以損失函數(shù)
的值在下降。當(dāng)?shù)揭欢ǔ潭?,此時(shí)的參數(shù)取值即為要求得的值C1學(xué)習(xí)速率的選取很關(guān)鍵,如果學(xué)習(xí)速率取值過大,容易達(dá)不到極值點(diǎn)甚至?xí)l(fā)散,學(xué)習(xí)速率太小容易導(dǎo)致收斂時(shí)間過長D1其中的學(xué)習(xí)速率是模型參數(shù),而不是超參數(shù)第4題下面的一段python程序是使用scikit-learn來構(gòu)建線性回歸模型,其中最后一條語句的目的是得到X_test的預(yù)測結(jié)果,則空格內(nèi)應(yīng)該填入的函數(shù)為
fromsklearn.linear_modelimportLinearRegressionX=[[6,2],[8,1],[10,0],[14,2],[18,0]]y=[[7],[9],[13],[17.5],[18]]model=LinearRegression()model.fit(X,y)X_test
=[[8,2],[9,0],[11,2],[16,2],[12,0]]y_test=[[11],[8.5],[15],[18],[11]]predictions=model.(X_test)A1predictB1getC1predD1learn第5題對某數(shù)據(jù)集進(jìn)行高次多項(xiàng)式的回歸,逐漸增加多項(xiàng)式的次數(shù),如采用七次多項(xiàng)式回歸擬合,曲線經(jīng)過了所有訓(xùn)練集中的點(diǎn),但在測試集上的R方值卻變得更低了。則以下表述正確的是A1發(fā)生了過擬合較為嚴(yán)重(overfitting)的情況B1發(fā)生了欠擬合較為嚴(yán)重(underfitting)的情況C1學(xué)習(xí)得到了一個(gè)非常好的模型,其在測試集上的表現(xiàn)最好D1R方值越大,則模型性能越好正確答案:DA第6題下列關(guān)于邏輯回歸的描述錯(cuò)誤的是A1線性回歸的結(jié)果輸出通常是一個(gè)連續(xù)值,值的范圍是無法限定的。邏輯回歸通過使用sigmoid函數(shù)將其轉(zhuǎn)為(-1,1)
的一個(gè)概率值,從而能夠完成對事件發(fā)生的概率進(jìn)行預(yù)測。B1邏輯回歸可以被理解為是一個(gè)被logistic方程歸一化后的線性回歸。C1邏輯回歸屬于連接函數(shù)為sigmoid函數(shù)的廣義線性模型。D1Sigmoid
函數(shù)有個(gè)很漂亮的“S”形,特點(diǎn)是一開始變化快,逐漸減慢,最后飽和。第7題scikit-learn中的邏輯回歸解決方案“l(fā)iblinear”使用的是CD優(yōu)化(即coordinatedescent,坐標(biāo)下降)算法,則下面的描述錯(cuò)誤的是:
ACD是一種梯度優(yōu)化算法。B在每次迭代中,該方法在當(dāng)前點(diǎn)處沿一個(gè)坐標(biāo)方向進(jìn)行一維搜索以求得一個(gè)函數(shù)的局部極小值。在整個(gè)過程中循環(huán)使用不同的坐標(biāo)方向。C該方法從一個(gè)初始的猜測值以求得函數(shù)的局部最優(yōu)值。該方法需要迭代進(jìn)行。D如果在某次迭代中,函數(shù)得不到優(yōu)化,說明一個(gè)駐點(diǎn)已經(jīng)達(dá)到。但是對于非平滑函數(shù),坐標(biāo)下降法可能會(huì)在在非駐點(diǎn)中斷執(zhí)行第8題在scikit-learn中,如何處理多類分類(Multi-classclassification)問題?A1scikit-learn無法實(shí)現(xiàn)多類分類B1scikit-learn只能用one-vs.-all實(shí)現(xiàn)多類分類C1scikit-learn只能用one-vs.-the-rest方法實(shí)現(xiàn)多類分類D1scikit-learn可以使用one-vs-one或one-vs.-the-rest方法實(shí)現(xiàn)多類分類,即將多類分類問題轉(zhuǎn)化為構(gòu)建若干個(gè)兩類的分類器第9題下面關(guān)于嶺(Ridge)回歸的描述正確的是A1嶺回歸使用L1正則化B1嶺回歸使用L2正則化C1嶺回歸使用L1+L2正則化D1嶺回歸不使用正則化第10題下面關(guān)于Lasso回歸的描述正確的是A1Lasso回歸使用L1正則化B1Lasso回歸使用L2正則化C1Lasso回歸使用L1+L2正則化D1Lasso回歸不使用正則化第四講作業(yè)第1題下面關(guān)于信息熵的描述中錯(cuò)誤的是:A1熱力學(xué)中的熱熵是表示分子狀態(tài)混亂程度的物理量。信息熵概念的提出受到了熱力學(xué)中的熱熵的概念的啟發(fā)B1信息熵由Shannon提出,信息熵的概念可以用來描述信源的不確定度C1信息熵是通信領(lǐng)域的概念,和機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)無關(guān)D1在深度學(xué)習(xí)中,經(jīng)常使用交叉熵來表征兩個(gè)變量概率分布P,
Q(假設(shè)P表示真實(shí)分布,
Q為模型預(yù)測的分布)的差異性。第2題下面關(guān)于相對熵(relativeentropy)的說法不正確的是A1相對熵又稱為KL散度(Kullback–Leibler
divergence)B1相對熵又稱為信息散度(information
divergence)C1相對熵又稱為信息增益(information
gain)D相對熵又被稱之為KL距離,因此滿足對稱性第3題下面關(guān)于JS散度和KL散度的區(qū)別的說法錯(cuò)誤的是A1KL散度不具對稱性B1JS散度具備對稱性C1JS散度在KL散度的基礎(chǔ)上進(jìn)行了改進(jìn)D
二者都不具備對稱性第4題關(guān)于感知機(jī)(perceptron),下列說法錯(cuò)誤的是A1感知機(jī)由Rosenblatt于1957年提出,是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)B1感知機(jī)是二分類的線性分類模型,屬于有監(jiān)督學(xué)習(xí)算法C1感知機(jī)是二分類的線性分類模型,屬于無監(jiān)督學(xué)習(xí)算法D1感知機(jī)的預(yù)測是用學(xué)習(xí)得到的感知機(jī)模型對新的實(shí)例進(jìn)行預(yù)測的,因此屬于判別模型。第5題下列哪種概念表達(dá)了在已知隨機(jī)變量Y的條件下隨機(jī)變量X的不確定性?A
交叉熵B
互信息C
條件熵D相對熵第6題
對于下面的一段python程序,下面的說法錯(cuò)誤的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])
kl1=np.sum(p*np.log(p/q))kl2=np.sum(q*np.log(q/p))A1程序最后兩行的計(jì)算結(jié)果是相等的B1程序最后兩行的計(jì)算結(jié)果是不相等的C1程序最后兩行的的目的是計(jì)算相對熵,其是交叉熵與信息熵的差值D1程序的目的是計(jì)算相對熵,其不具備對稱性第7題對于下面的一段python程序,下面的說法正確的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*np.sum(p*np.log(p/M))+0.5*np.sum(q*np.log(q/M))A1最后一行是計(jì)算p和q之間的KL散度B1最后一行是計(jì)算p和q之間的JS散度C1最后一行是計(jì)算p和q之間的條件熵D1最后一行是計(jì)算p和q之間的交叉熵第8題對于下面的一段python程序,下面的說法正確的是
importnumpyasnpimportscipy.statsp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*scipy.stats.entropy(p,M)+0.5*scipy.stats.entropy(q,M)A1最后一行是計(jì)算p和q之間的KL散度B1最后一行是計(jì)算p和q之間的JS散度C1最后一行是計(jì)算p和q之間的條件熵D1最后一行是計(jì)算p和q之間的交叉熵第9題對于下面的一段python程序,下面的說法正確的是importnumpyasnppredicted=np.array([11.2,
2.5,
7.9,
7.2])label=np.array([1,0,0,0])defsoftmax(x):returnnp.exp(x)/np.sum(np.exp(x),axis=0)
print(softmax(predicted))loss=-np.sum(label*np.log(softmax(predicted)))A1最后一行是計(jì)算predicted和label之間的互信息B1最后一行是計(jì)算predicted和label之間的JS散度C1最后一行是計(jì)算predicted和label之間的條件熵D1最后一行是計(jì)算predicted和label之間的交叉熵第10題對于給定的下面的一段python程序及其輸出,下面的說法正確的是importnumpyasnp
a=np.asarray([0.5,0.5])#假設(shè)a為實(shí)際分布b=np.array([0.25,0.75])c=np.array([0.125,0.875])kl1=np.sum(a*np.log(a/b))print("b,a",kl1)kl2=np.sum(a*np.log(a/c))print("c,a",kl2)
其輸出結(jié)果為b,a0.143841036226c,a0.413339286592A1程序的輸出是計(jì)算了條件熵B1程序的輸出是計(jì)算了互信息C1b和c相比,更接近實(shí)際分布aD1c和b相比,更接近實(shí)際分布a第五講作業(yè)第1題下列哪種模型更適合序列建模與預(yù)測?A1循環(huán)神經(jīng)網(wǎng)絡(luò)RNNB1卷積神經(jīng)網(wǎng)絡(luò)CNNC1多層感知機(jī)D1長短時(shí)記憶網(wǎng)絡(luò)LSTM正確答案:AD第2題下列關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)說法錯(cuò)誤的是A1隱藏層之間的節(jié)點(diǎn)有連接B1隱藏層之間的節(jié)點(diǎn)沒有連接C1隱藏層的輸入不僅包括輸入層的輸出,還包括上一時(shí)刻隱藏層的輸出D1網(wǎng)絡(luò)會(huì)對之前時(shí)刻的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中第3題循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)可以處理哪些情況?A1多對多的同步序列輸入輸出。如詞性標(biāo)注等B1多對一的處理,如判斷一段文字的情感分類C1多對多的非同步序列輸入和序列輸出,如機(jī)器翻譯中輸入英文語句然后翻譯為法語形式輸出D1一對多的序列輸出。如輸入一張圖片,生成輸出一段文字序列正確答案:ABCD第4題下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是A1LSTM是簡化版的RNNB1LSTM是雙向的RNNC1LSTM是多層的RNND1LSTM是RNN的擴(kuò)展,其通過特殊的結(jié)構(gòu)設(shè)計(jì)來避免長期依賴問題第5題標(biāo)準(zhǔn)RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))無法處理更長的上下文間隔,即長期依賴問題。為此Hochreiter&Schmidhuber(1997)提出一種特殊的RNN類型,其通過特殊的結(jié)構(gòu)設(shè)計(jì)來避免長期依賴問題。并被AlexGraves進(jìn)行了改良和推廣。這種改進(jìn)的模型是A1長短期記憶網(wǎng)絡(luò)LSTMB1卷積神經(jīng)網(wǎng)絡(luò)CNNC1多層感知機(jī)MLPD1受限玻爾茲曼機(jī)第6題下列說法錯(cuò)誤的是A1標(biāo)準(zhǔn)RNN隱藏層只有一個(gè)狀態(tài)h,對短期輸入敏感,但難以捕捉長期上下文B1LSTM在隱藏層上增加了一個(gè)長期狀態(tài)c
(cell
state),用于保存長期狀態(tài)。C也被稱為單元狀態(tài)或細(xì)胞狀態(tài)C1LSTM只有長期狀態(tài),沒有隱藏狀態(tài)D1LSTM既有長期狀態(tài),也有隱藏狀態(tài)第7題下列關(guān)于LSTM說法正確的是A1LSTM用三個(gè)控制門記憶長期狀態(tài)B1忘記門控制保存之前的長期狀態(tài)C1輸入門控制更新長期狀態(tài)D1輸出門控制是否把長期狀態(tài)作為當(dāng)前的LSTM的輸出正確答案:ABCD第8題
LSTM通過“門”結(jié)構(gòu)來去除或者增加信息到細(xì)胞狀態(tài)(長期狀態(tài))。為了讓信息選擇性通過,則A1一般需要一個(gè)
sigmoid
神經(jīng)網(wǎng)絡(luò)層和一個(gè)
pointwise
乘法操作B1一般需要一個(gè)
sigmoid
神經(jīng)網(wǎng)絡(luò)層和一個(gè)
pointwise
加法操作C1一般需要一個(gè)
tanh
神經(jīng)網(wǎng)絡(luò)層和一個(gè)
pointwise
乘法操作D一般需要一個(gè)
tanh
神經(jīng)網(wǎng)絡(luò)層和一個(gè)
pointwise
加法操作第9題下列關(guān)于GRU(GatedRecurrentUnitCho,etal.2014)的哪個(gè)描述是錯(cuò)誤的?A1GRU混合了長期狀態(tài)和隱藏狀態(tài)B1和LSTM相同的是,
GRU也有三個(gè)門,即忘記門、更新門和輸出門C1在GRU中,取消了LSTM中的輸出門D1如果reset門為1,而update門為0的話,則GRU完全退化為一個(gè)RNN。第10題下列關(guān)于雙向RNN的說法正確的有A1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出只與前面的序列有關(guān),而與后面的序列無關(guān)B1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出與前面的序列無關(guān),而與后面的序列有關(guān)C1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出既與前面的序列有關(guān),也與后面的序列有關(guān)D1Bidirectional
RNNs由兩個(gè)RNNs上下疊加組成。輸出由這兩個(gè)RNNs的隱藏層的狀態(tài)決定正確答案:CD第六講作業(yè)第1題在卷積神經(jīng)網(wǎng)絡(luò)的某個(gè)降采樣層(pooling層)中,經(jīng)過降采樣處理,得到了16個(gè)5*5的特征圖,其每個(gè)單元與上一層的2*2鄰域連接(滑動(dòng)窗口為2*2)。則該降采樣層的尺寸和上一個(gè)層的尺寸的關(guān)系是?A
降采樣層的尺寸是上一層的尺寸的1/2B降采樣層的尺寸是上一層的尺寸的1/4C
降采樣層的尺寸是上一層的尺寸的1/8D降采樣層的尺寸是上一層的尺寸的4倍第2題關(guān)于采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類和文本分類的比較,下列說法錯(cuò)誤的是A卷積神經(jīng)網(wǎng)絡(luò)只能用于圖像分類,不能用于文本分類,沒有相關(guān)文獻(xiàn);B
使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類,一般將句子中每個(gè)詞表示為固定長度的向量,這樣句子就可以表示為矩陣,從而使得在結(jié)構(gòu)上與圖像類似,并在后續(xù)進(jìn)行卷積等處理C
圖像處理應(yīng)用中,卷積核處理的局部區(qū)域?yàn)閳D像的一小塊區(qū)域,而在文本分類時(shí)卷積核處理的局部區(qū)域通常為相鄰的上下幾行(幾個(gè)詞)。因此卷積核的寬度和輸入矩陣的寬度相等D
使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類或者文檔分類,卷積提取的特征與采用n-gram模式提取的特征類似第3題關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說法正確的是A1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸逐漸變大B1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸逐漸變小C1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸大小不變D1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸開始變小,后來變大第4題關(guān)于卷積神經(jīng)網(wǎng)絡(luò)中池化處理(pooling)的說法正確的是A1在卷積神經(jīng)網(wǎng)絡(luò)中,卷積的下一步通常是進(jìn)行池化處理(pooling)B1池化處理主要是對不同位置的特征進(jìn)行聚合統(tǒng)計(jì)C1池化處理起到了減少了參數(shù)和降維的作用D1常用的池化做法是對每個(gè)濾波器的輸出求最大值、平均值等正確答案:ABCD第5題下列關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的描述正確的是A1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是全連接網(wǎng)絡(luò)B1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是部分連接網(wǎng)絡(luò)C1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開始的若干層是局部連接,最后的層是全連接D1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開始的若干層是全連接,最后的層是局部連接第6題
在卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A1卷積層后為池化層,然后還是卷積層-池化層B1多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C1網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D1網(wǎng)絡(luò)中最開始的幾個(gè)層是全連接層正確答案:AC第7題卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)特點(diǎn)是“參數(shù)共享”。下面關(guān)于“參數(shù)共享”的哪種說法是正確的?A1如果參數(shù)較多,則容易導(dǎo)致過擬合。而減少參數(shù)有助于避免過擬合B1參數(shù)共享的優(yōu)勢是通過一個(gè)任務(wù)上學(xué)習(xí)到的參數(shù)可以直接應(yīng)用到另外一個(gè)任務(wù)上C1可以允許一個(gè)特征檢測器在整個(gè)輸入圖像的不同位置使用,即可以把參數(shù)看成是卷積提取特征的方式,該方式與位置無關(guān)D1參數(shù)越多,才能避免過擬合,減少參數(shù)容易導(dǎo)致過擬合正確答案:AC第8題
由于池化層沒有需要求解的參數(shù),因此其對反向傳播中梯度計(jì)算沒有影響第9題假設(shè)輸入的圖像為100*100像素(RGB)的圖像,并且沒有使用卷積神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有50個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入圖像是全連接的關(guān)系,則這個(gè)隱藏層需要多少參數(shù)(包括偏置參數(shù))?A11,
500,
000B11,
500,
050C1500,
000D11,
500,
001第10題
對一個(gè)灰度圖像應(yīng)用如下的過濾器會(huì)達(dá)到什么效果?10-110-110-1A1實(shí)現(xiàn)水平方向邊緣檢測B1實(shí)現(xiàn)豎直方向邊緣檢測C1實(shí)現(xiàn)45度邊緣檢測D1實(shí)現(xiàn)圖像對比度檢測第七講作業(yè)第1題關(guān)于文檔的向量表示模型,采用深度學(xué)習(xí)中的詞向量表示模型和傳統(tǒng)的單純基于詞頻向量表示方法的區(qū)別的描述錯(cuò)誤的是A傳統(tǒng)文檔的表示一般采用詞袋BOW模型,表示為高維向量B深度學(xué)習(xí)中的詞向量表示模型通常是一種低維度向量C深度學(xué)習(xí)中的詞向量表示模型存在的一個(gè)突出問題就是“詞匯鴻溝”現(xiàn)象D
傳統(tǒng)方法中詞向量表示模型存在一個(gè)突出問題就是“詞匯鴻溝”現(xiàn)象第2題關(guān)于利用Word2vec獲取詞向量,下列說法錯(cuò)誤的是A1Word2vec可以將詞表示為低維實(shí)數(shù)值B1Word2vec的向量輸出既可以采用二進(jìn)制存儲(chǔ),也可以普通存儲(chǔ)(可以看到詞語和對應(yīng)的向量)C1Word2vec需要利用到較大規(guī)模的語料進(jìn)行訓(xùn)練D1Word2vec不需要利用語料進(jìn)行訓(xùn)練第3題關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),下列描述正確的是A1模型的網(wǎng)絡(luò)結(jié)構(gòu)是通過句法分析得到的B1語料自身富含情感傾向信息C1訓(xùn)練語料采用人工標(biāo)注D1父節(jié)點(diǎn)的向量通過利用組合函數(shù)g由其孩子節(jié)點(diǎn)的向量得到正確答案:ABCD第4題下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),錯(cuò)誤的是A1每個(gè)詞通常初始化表示為一個(gè)d維的向量。由一個(gè)隨機(jī)均勻分布隨機(jī)采樣生成B1所有的詞向量被存儲(chǔ)在一個(gè)詞嵌入矩陣中。隨著訓(xùn)練的進(jìn)行,該矩陣將被視為一種參數(shù),因此會(huì)被學(xué)習(xí)調(diào)整C1不同長度和句法類型的句子其組合詞向量的維度都不同D1樹結(jié)構(gòu)基于句法分析器生成第5題下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011)的描述正確的是A
假設(shè)節(jié)點(diǎn)p1的詞向量為a,
則需要將其乘以分類矩陣Ws,然后再傳給softmax,以進(jìn)行情感分類概率分布的計(jì)算B假設(shè)節(jié)點(diǎn)p1的詞向量為a,
則直接輸出作為情感分類概率C
假設(shè)節(jié)點(diǎn)p1的詞向量為a,
則直接傳給softmax分類器以計(jì)算情感分類概率D標(biāo)準(zhǔn)遞歸神經(jīng)網(wǎng)絡(luò)RNN后期的版本是MV-RNN和RNTN正確答案:AD第6題關(guān)于RNTN(Socheretal.,2013),下列正確的是A
該結(jié)構(gòu)的優(yōu)點(diǎn)是相對于MV-RNN,其效率大幅提升B
標(biāo)準(zhǔn)RNN(遞歸神經(jīng)網(wǎng)絡(luò))相當(dāng)于RNTN的一種特殊情況C
采用了張量層矩陣D
其它選項(xiàng)都不對正確答案:ABC第7題神經(jīng)網(wǎng)絡(luò)中梯度下降法的訓(xùn)練步驟通常如何?1.根據(jù)樣本預(yù)測值和真實(shí)值之間的誤差,計(jì)算損失函數(shù)2.迭代更新,直到模型整體誤差小于閾值或者達(dá)到預(yù)定的迭代次數(shù)3.把樣本輸入給模型,得到預(yù)測值4.初始化模型的參數(shù),如權(quán)重和偏差等5.反向傳播,按照梯度下降的方向改變神經(jīng)元相應(yīng)的權(quán)重值A(chǔ)1,2,3,4,5B5,4,3,2,1C3,2,1,5,4D4,3,1,5,2第8題下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)采用權(quán)重共享機(jī)制?A卷積神經(jīng)網(wǎng)絡(luò)B
循環(huán)神經(jīng)網(wǎng)絡(luò)C全連接神經(jīng)網(wǎng)絡(luò)D
多層感知機(jī)正確答案:AB第9題在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)可以用于抑制過擬合?
A1DropoutB1正則化C1盡量增加選取特征變量的數(shù)量D1盡可能選用復(fù)雜的模型正確答案:AB第10題在很多神經(jīng)網(wǎng)絡(luò)分類系統(tǒng)中,假設(shè)共計(jì)有K個(gè)類,通常在輸出層希望輸出樣本屬于K個(gè)類中每個(gè)類的概率(在0和1之間),且使得這些概率的和等于1。則下列哪個(gè)函數(shù)可以用在輸出層中以達(dá)到上述目的?A1SigmoidB1ReLuC1Softma
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 兒科醫(yī)師崗位面試題集
- 華為公司部門經(jīng)理面試題及答案
- 金融行業(yè)面試題集銀行職員面試題及參考答案
- 2025年電子商務(wù)創(chuàng)新中心項(xiàng)目可行性研究報(bào)告
- 2025年智能型洗衣服務(wù)項(xiàng)目可行性研究報(bào)告
- 2025年虛擬貨幣挖礦中心建設(shè)項(xiàng)目可行性研究報(bào)告
- 2025年全周期健康管理服務(wù)項(xiàng)目可行性研究報(bào)告
- 2025年文化旅游項(xiàng)目開發(fā)與推廣策略可行性研究報(bào)告
- 2025年綠色供應(yīng)鏈管理系統(tǒng)建設(shè)項(xiàng)目可行性研究報(bào)告
- 2026年湖南石油化工職業(yè)技術(shù)學(xué)院單招職業(yè)適應(yīng)性考試題庫及參考答案詳解一套
- 2025年廣東省公需課《人工智能賦能制造業(yè)高質(zhì)量發(fā)展》試題及答案
- 安全通道防護(hù)棚施工方案
- 有機(jī)肥可行性研究報(bào)告
- 2025年-基于華為IPD與質(zhì)量管理體系融合的研發(fā)質(zhì)量管理方案-新版
- 法律職業(yè)資格考試客觀題(試卷一)試卷與參考答案(2025年)
- 腹壁下動(dòng)穿支課件
- 2025-2030集中式與分散式青年公寓運(yùn)營效率對比分析
- 廣西協(xié)美化學(xué)品有限公司年產(chǎn)7400噸高純有機(jī)過氧化物項(xiàng)目環(huán)評(píng)報(bào)告
- 智慧樹知道網(wǎng)課《艾滋病、性與健康》課后章節(jié)測試答案
- 配電施工工藝培訓(xùn)
- 2025年全國教師師德網(wǎng)絡(luò)培訓(xùn)考試題庫及答案
評(píng)論
0/150
提交評(píng)論