雨課堂學(xué)堂在線學(xué)堂云《深度學(xué)習(xí)基礎(chǔ)(哈工 )》單元測試考核答案_第1頁
雨課堂學(xué)堂在線學(xué)堂云《深度學(xué)習(xí)基礎(chǔ)(哈工 )》單元測試考核答案_第2頁
雨課堂學(xué)堂在線學(xué)堂云《深度學(xué)習(xí)基礎(chǔ)(哈工 )》單元測試考核答案_第3頁
雨課堂學(xué)堂在線學(xué)堂云《深度學(xué)習(xí)基礎(chǔ)(哈工 )》單元測試考核答案_第4頁
雨課堂學(xué)堂在線學(xué)堂云《深度學(xué)習(xí)基礎(chǔ)(哈工 )》單元測試考核答案_第5頁
已閱讀5頁,還剩12頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

注:不含主觀題第1題機(jī)器學(xué)習(xí)(深度學(xué)習(xí))系統(tǒng)中通常將數(shù)據(jù)集劃分為訓(xùn)練集和測試集,其中被用來學(xué)習(xí)得到系統(tǒng)的參數(shù)取值的是A訓(xùn)練集(trainingset)B測試集(testingset)C訓(xùn)練集(trainingset)和測試集(testingset)D其它選項(xiàng)都不對第2題測試集(testingset)用于最終報(bào)告模型的評(píng)價(jià)結(jié)果,因此在訓(xùn)練階段測試集中的數(shù)據(jù)一般是否可以出現(xiàn)在訓(xùn)練集中?A不可以B可以第3題超參數(shù)和參數(shù)的區(qū)別。參數(shù)一般是模型需要根據(jù)訓(xùn)練數(shù)據(jù)可以自動(dòng)學(xué)習(xí)出的變量。超參數(shù)一般就是根據(jù)經(jīng)驗(yàn)確定預(yù)設(shè)的變量。下面哪些是超參數(shù)?A深度學(xué)習(xí)模型的權(quán)重,偏差B深度學(xué)習(xí)的學(xué)習(xí)速率、人工神經(jīng)網(wǎng)絡(luò)的層數(shù)C深度學(xué)習(xí)的迭代次數(shù)D深度學(xué)習(xí)的每層神經(jīng)元的個(gè)數(shù)正確答案:BCD第4題K折交叉驗(yàn)證通常將數(shù)據(jù)集隨機(jī)分為k個(gè)子集。下列關(guān)于K折交叉驗(yàn)證說法錯(cuò)誤的是A每次將其中一個(gè)子集作為測試集,剩下k-1個(gè)子集作為訓(xùn)練集進(jìn)行訓(xùn)練B每次將其中一個(gè)子集作為訓(xùn)練集,剩下k-1個(gè)子集作為測試集進(jìn)行測試C劃分時(shí)有多種方法,例如對非平衡數(shù)據(jù)可以用分層采樣,就是在每一份子集中都保持和原始數(shù)據(jù)集相同的類別比例D留一法即k=1的k折交叉驗(yàn)證。留一法計(jì)算最繁瑣,但樣本利用率最高。適合于小樣本的情況第5題已知如下定義:Truepositives(TP):

被正確地劃分為正例的個(gè)數(shù),即實(shí)際為正例且被分類器劃分為正例的實(shí)例數(shù)(樣本數(shù));Falsenegatives(FN):被錯(cuò)誤地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為正例但被分類器劃分為負(fù)例的實(shí)例數(shù);Falsepositives(FP):被錯(cuò)誤地劃分為正例的個(gè)數(shù),即實(shí)際為負(fù)例但被分類器劃分為正例的實(shí)例數(shù);True

negatives(TN):

被正確地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為負(fù)例且被分類器劃分為負(fù)例的實(shí)例數(shù)。

則下面定義正確的是:A分類準(zhǔn)確率

Accuracy=(TP+TN)/(P+N)B精確率

Precision=TP/(TP+FP)C召回率

Recall=TP/PD以上都不對正確答案:ABC第6題F值的公式為Fβ=[(1+β2)*Precision*Recall]/(β2*Precision+Recall),即其為準(zhǔn)確率和召回率的調(diào)和平均。如果二者(即準(zhǔn)確率和召回率)同等重要,則為AF1BF2CF0.5DF3第7題ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)描繪了分類器在

fprate(錯(cuò)誤的正例,橫軸)和tprate(真正正例,縱軸)間的trade-off(權(quán)衡)。下面說法正確的是:AA.(縱軸)敏感性高=漏診率低,

而(橫軸)特異性低=誤診率高B(縱軸)敏感性高=漏診率高,

而(橫軸)特異性低=誤診率高C(縱軸)敏感性高=漏診率高,

而(橫軸)特異性低=誤診率低D(縱軸)敏感性高=漏診率低,

而(橫軸)特異性低=誤診率低第8題關(guān)于ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)中AUC(AreaUnderCurve)說法正確的是A定義為ROC曲線下的面積BAUC值提供了分類器的一個(gè)整體數(shù)值。通常AUC越大,分類器更好C取值范圍為[0,1]D其它都不對正確答案:ABC第9題關(guān)于

Cohen'skappa和Fleiss'kappa的區(qū)別:ACohen’skappa主要用于衡量兩個(gè)評(píng)價(jià)者(

raters

)之間的一致性(agreement).B如果評(píng)價(jià)者多于2人時(shí),可以考慮使用Fleiss'kappa.C二者沒有本質(zhì)區(qū)別,可以等價(jià)D其它選項(xiàng)都不對正確答案:AB第10題關(guān)于

Cohen'skappa取值的含義,下列錯(cuò)誤的是:A1其取值通常在-1和+1之間B1其取值為+1,說明一致性最好C1其取值越大,說明一致性越好D1其取值越小,說明一致性越好第二講作業(yè)第1題自然語言處理中為了計(jì)算文檔之間的相似度,往往需進(jìn)行文檔的量化表示,下面關(guān)于BOW(即Bag-Of-Wordsmodel)和VSM(VectorSpaceModel)的描述正確的是:ABOW,即詞袋模型。即為了計(jì)算文檔之間的相似度,假設(shè)可以忽略文檔內(nèi)的單詞順序和語法、句法等要素,將其僅僅看作是若干個(gè)詞匯的集合。BVSM,即向量空間模型。是一種表示文本文檔的數(shù)學(xué)模型。將每個(gè)文檔表示成同一向量空間的向量。C在VSM,即向量空間模型中,所有文檔的向量維度的數(shù)目都相同。D其它選項(xiàng)都不對正確答案:ABC第2題為了在python程序中進(jìn)行英文自然語言的處理,如詞語切分(Tokenization)詞干提取(Stemming)等工作,需要使用的導(dǎo)入模塊語句通常為:Aimportmatplotlib.pyplotaspltBimportnltkCimportnumpyasnpDfromsklearnimportsvm,datasets第3題為了進(jìn)行中文的分詞或者詞性標(biāo)注等處理,可以使用的導(dǎo)入模塊語句為:Aimportmatplotlib.pyplotaspltBimportnumpyasnpCimport

jiebaDfromsklearnimportsvm,datasets第4題對于文本“Iliketoeatapple”,則下列關(guān)于N-gram的描述正確的是A其Uni-gram為“I”,“l(fā)ike”,

“to”,“eat”,“apple”B其Bi-gram為“Ilike”,“l(fā)iketo”,

“toeat”,“eatapple”C其Tri-gram為“Iliketo”,“l(fā)iketoeat”,

“toeatapple”D其它選項(xiàng)都不對正確答案:ABC第5題關(guān)于特征降維方法有線性判別分析(LDA)和主成分分析法(PCA),錯(cuò)誤的是ALDA和PCA的共同點(diǎn)是,都可以將原始的樣本映射到維度更低的樣本空間BLDA是為了讓映射后的樣本有最好的分類性能。即LDA是一種有監(jiān)督的降維方法CPCA是為了讓映射后的樣本具有最大的發(fā)散性,即PCA是一種無監(jiān)督的降維方法DLDA和PCA都是有監(jiān)督的降維方法第6題對于下面的一段python程序,計(jì)算的是向量之間的importnumpyasnpx=np.random.random(5)y=np.random.random(5)sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))A1歐氏距離B1余弦相似度C1歐式相似度D1馬修相關(guān)系數(shù)第7題對于下面的一段python程序,sim中保存的是向量之間的:importnumpyasnpx=np.random.random(5)y=np.random.random(5)fromscipy.spatial.distanceimportpdistX=np.vstack([x,y])sim=1-pdist(X,'cosine')A1歐氏距離B1余弦相似度C1余弦距離D1馬修相關(guān)系數(shù)第8題下面的一段python程序的目的是使用主成分分析法(principalcomponentanalysis)

對iris數(shù)據(jù)集進(jìn)行特征降維,以便于數(shù)據(jù)的二維平面可視化。則其中空格處應(yīng)該填充的數(shù)字為?

importmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.datasetsimportload_irisdata=load_iris()X=data.datay=data.targetpca=PCA(n_components=

)reduced_X=pca.fit_transform(X)A1B2C3D4第9題

下圖是使用主成分分析法對iris數(shù)據(jù)集進(jìn)行特征降維并進(jìn)行二維平面可視化的結(jié)果。則為了繪圖,需要使用的導(dǎo)入語句是下面哪一種?

Aimportmatplotlib.pyplotaspltBfromsklearn.decompositionimportPCACfromsklearn.ldaimportLDADimportnumpyasnp第10題

下面哪一條語句是用于導(dǎo)入nltk中的英文詞性標(biāo)注的模塊?Afromnltkimportword_tokenizeBfromnltk.stemimportPorterStemmerCfromnltkimportpos_tagD

fromnltk.corpusimporttreebank第三講作業(yè)第1題關(guān)于線性模型,下列說法錯(cuò)誤的是A1狹義線性模型通常是指自變量與因變量之間呈按比例、成直線的關(guān)系。一階導(dǎo)數(shù)不為常數(shù)B1線性通常表現(xiàn)為1次曲線C1廣義線性是線性模型的擴(kuò)展,主要通過聯(lián)結(jié)函數(shù),使預(yù)測值落在響應(yīng)變量的變幅內(nèi)D1非線性一般指不按比例、不成直線的關(guān)系,一階導(dǎo)數(shù)不為常數(shù)第2題下列哪些是常見的非線性回歸模型?A2次以上的多項(xiàng)式

B雙曲線模型C冪函數(shù)模型D指數(shù)函數(shù)模型正確答案:ABDC第3題下列關(guān)于梯度下降(Gradientdescent)法的描述錯(cuò)誤的是

A1梯度下降是利用一階的梯度信息找到代價(jià)函數(shù)局部最優(yōu)解的一種方法B1通常會(huì)先初始化一組參數(shù)值,然后在這個(gè)值之上,用梯度下降法去求出下一組的值。由于是梯度下降的,所以損失函數(shù)

的值在下降。當(dāng)?shù)揭欢ǔ潭?,此時(shí)的參數(shù)取值即為要求得的值C1學(xué)習(xí)速率的選取很關(guān)鍵,如果學(xué)習(xí)速率取值過大,容易達(dá)不到極值點(diǎn)甚至?xí)l(fā)散,學(xué)習(xí)速率太小容易導(dǎo)致收斂時(shí)間過長D1其中的學(xué)習(xí)速率是模型參數(shù),而不是超參數(shù)第4題下面的一段python程序是使用scikit-learn來構(gòu)建線性回歸模型,其中最后一條語句的目的是得到X_test的預(yù)測結(jié)果,則空格內(nèi)應(yīng)該填入的函數(shù)為

fromsklearn.linear_modelimportLinearRegressionX=[[6,2],[8,1],[10,0],[14,2],[18,0]]y=[[7],[9],[13],[17.5],[18]]model=LinearRegression()model.fit(X,y)X_test

=[[8,2],[9,0],[11,2],[16,2],[12,0]]y_test=[[11],[8.5],[15],[18],[11]]predictions=model.(X_test)A1predictB1getC1predD1learn第5題對某數(shù)據(jù)集進(jìn)行高次多項(xiàng)式的回歸,逐漸增加多項(xiàng)式的次數(shù),如采用七次多項(xiàng)式回歸擬合,曲線經(jīng)過了所有訓(xùn)練集中的點(diǎn),但在測試集上的R方值卻變得更低了。則以下表述正確的是A1發(fā)生了過擬合較為嚴(yán)重(overfitting)的情況B1發(fā)生了欠擬合較為嚴(yán)重(underfitting)的情況C1學(xué)習(xí)得到了一個(gè)非常好的模型,其在測試集上的表現(xiàn)最好D1R方值越大,則模型性能越好正確答案:DA第6題下列關(guān)于邏輯回歸的描述錯(cuò)誤的是A1線性回歸的結(jié)果輸出通常是一個(gè)連續(xù)值,值的范圍是無法限定的。邏輯回歸通過使用sigmoid函數(shù)將其轉(zhuǎn)為(-1,1)

的一個(gè)概率值,從而能夠完成對事件發(fā)生的概率進(jìn)行預(yù)測。B1邏輯回歸可以被理解為是一個(gè)被logistic方程歸一化后的線性回歸。C1邏輯回歸屬于連接函數(shù)為sigmoid函數(shù)的廣義線性模型。D1Sigmoid

函數(shù)有個(gè)很漂亮的“S”形,特點(diǎn)是一開始變化快,逐漸減慢,最后飽和。第7題scikit-learn中的邏輯回歸解決方案“l(fā)iblinear”使用的是CD優(yōu)化(即coordinatedescent,坐標(biāo)下降)算法,則下面的描述錯(cuò)誤的是:

ACD是一種梯度優(yōu)化算法。B在每次迭代中,該方法在當(dāng)前點(diǎn)處沿一個(gè)坐標(biāo)方向進(jìn)行一維搜索以求得一個(gè)函數(shù)的局部極小值。在整個(gè)過程中循環(huán)使用不同的坐標(biāo)方向。C該方法從一個(gè)初始的猜測值以求得函數(shù)的局部最優(yōu)值。該方法需要迭代進(jìn)行。D如果在某次迭代中,函數(shù)得不到優(yōu)化,說明一個(gè)駐點(diǎn)已經(jīng)達(dá)到。但是對于非平滑函數(shù),坐標(biāo)下降法可能會(huì)在在非駐點(diǎn)中斷執(zhí)行第8題在scikit-learn中,如何處理多類分類(Multi-classclassification)問題?A1scikit-learn無法實(shí)現(xiàn)多類分類B1scikit-learn只能用one-vs.-all實(shí)現(xiàn)多類分類C1scikit-learn只能用one-vs.-the-rest方法實(shí)現(xiàn)多類分類D1scikit-learn可以使用one-vs-one或one-vs.-the-rest方法實(shí)現(xiàn)多類分類,即將多類分類問題轉(zhuǎn)化為構(gòu)建若干個(gè)兩類的分類器第9題下面關(guān)于嶺(Ridge)回歸的描述正確的是A1嶺回歸使用L1正則化B1嶺回歸使用L2正則化C1嶺回歸使用L1+L2正則化D1嶺回歸不使用正則化第10題下面關(guān)于Lasso回歸的描述正確的是A1Lasso回歸使用L1正則化B1Lasso回歸使用L2正則化C1Lasso回歸使用L1+L2正則化D1Lasso回歸不使用正則化第四講作業(yè)第1題下面關(guān)于信息熵的描述中錯(cuò)誤的是:A1熱力學(xué)中的熱熵是表示分子狀態(tài)混亂程度的物理量。信息熵概念的提出受到了熱力學(xué)中的熱熵的概念的啟發(fā)B1信息熵由Shannon提出,信息熵的概念可以用來描述信源的不確定度C1信息熵是通信領(lǐng)域的概念,和機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)無關(guān)D1在深度學(xué)習(xí)中,經(jīng)常使用交叉熵來表征兩個(gè)變量概率分布P,

Q(假設(shè)P表示真實(shí)分布,

Q為模型預(yù)測的分布)的差異性。第2題下面關(guān)于相對熵(relativeentropy)的說法不正確的是A1相對熵又稱為KL散度(Kullback–Leibler

divergence)B1相對熵又稱為信息散度(information

divergence)C1相對熵又稱為信息增益(information

gain)D相對熵又被稱之為KL距離,因此滿足對稱性第3題下面關(guān)于JS散度和KL散度的區(qū)別的說法錯(cuò)誤的是A1KL散度不具對稱性B1JS散度具備對稱性C1JS散度在KL散度的基礎(chǔ)上進(jìn)行了改進(jìn)D

二者都不具備對稱性第4題關(guān)于感知機(jī)(perceptron),下列說法錯(cuò)誤的是A1感知機(jī)由Rosenblatt于1957年提出,是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)B1感知機(jī)是二分類的線性分類模型,屬于有監(jiān)督學(xué)習(xí)算法C1感知機(jī)是二分類的線性分類模型,屬于無監(jiān)督學(xué)習(xí)算法D1感知機(jī)的預(yù)測是用學(xué)習(xí)得到的感知機(jī)模型對新的實(shí)例進(jìn)行預(yù)測的,因此屬于判別模型。第5題下列哪種概念表達(dá)了在已知隨機(jī)變量Y的條件下隨機(jī)變量X的不確定性?A

交叉熵B

互信息C

條件熵D相對熵第6題

對于下面的一段python程序,下面的說法錯(cuò)誤的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])

kl1=np.sum(p*np.log(p/q))kl2=np.sum(q*np.log(q/p))A1程序最后兩行的計(jì)算結(jié)果是相等的B1程序最后兩行的計(jì)算結(jié)果是不相等的C1程序最后兩行的的目的是計(jì)算相對熵,其是交叉熵與信息熵的差值D1程序的目的是計(jì)算相對熵,其不具備對稱性第7題對于下面的一段python程序,下面的說法正確的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*np.sum(p*np.log(p/M))+0.5*np.sum(q*np.log(q/M))A1最后一行是計(jì)算p和q之間的KL散度B1最后一行是計(jì)算p和q之間的JS散度C1最后一行是計(jì)算p和q之間的條件熵D1最后一行是計(jì)算p和q之間的交叉熵第8題對于下面的一段python程序,下面的說法正確的是

importnumpyasnpimportscipy.statsp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*scipy.stats.entropy(p,M)+0.5*scipy.stats.entropy(q,M)A1最后一行是計(jì)算p和q之間的KL散度B1最后一行是計(jì)算p和q之間的JS散度C1最后一行是計(jì)算p和q之間的條件熵D1最后一行是計(jì)算p和q之間的交叉熵第9題對于下面的一段python程序,下面的說法正確的是importnumpyasnppredicted=np.array([11.2,

2.5,

7.9,

7.2])label=np.array([1,0,0,0])defsoftmax(x):returnnp.exp(x)/np.sum(np.exp(x),axis=0)

print(softmax(predicted))loss=-np.sum(label*np.log(softmax(predicted)))A1最后一行是計(jì)算predicted和label之間的互信息B1最后一行是計(jì)算predicted和label之間的JS散度C1最后一行是計(jì)算predicted和label之間的條件熵D1最后一行是計(jì)算predicted和label之間的交叉熵第10題對于給定的下面的一段python程序及其輸出,下面的說法正確的是importnumpyasnp

a=np.asarray([0.5,0.5])#假設(shè)a為實(shí)際分布b=np.array([0.25,0.75])c=np.array([0.125,0.875])kl1=np.sum(a*np.log(a/b))print("b,a",kl1)kl2=np.sum(a*np.log(a/c))print("c,a",kl2)

其輸出結(jié)果為b,a0.143841036226c,a0.413339286592A1程序的輸出是計(jì)算了條件熵B1程序的輸出是計(jì)算了互信息C1b和c相比,更接近實(shí)際分布aD1c和b相比,更接近實(shí)際分布a第五講作業(yè)第1題下列哪種模型更適合序列建模與預(yù)測?A1循環(huán)神經(jīng)網(wǎng)絡(luò)RNNB1卷積神經(jīng)網(wǎng)絡(luò)CNNC1多層感知機(jī)D1長短時(shí)記憶網(wǎng)絡(luò)LSTM正確答案:AD第2題下列關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)說法錯(cuò)誤的是A1隱藏層之間的節(jié)點(diǎn)有連接B1隱藏層之間的節(jié)點(diǎn)沒有連接C1隱藏層的輸入不僅包括輸入層的輸出,還包括上一時(shí)刻隱藏層的輸出D1網(wǎng)絡(luò)會(huì)對之前時(shí)刻的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中第3題循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)可以處理哪些情況?A1多對多的同步序列輸入輸出。如詞性標(biāo)注等B1多對一的處理,如判斷一段文字的情感分類C1多對多的非同步序列輸入和序列輸出,如機(jī)器翻譯中輸入英文語句然后翻譯為法語形式輸出D1一對多的序列輸出。如輸入一張圖片,生成輸出一段文字序列正確答案:ABCD第4題下列關(guān)于長短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是A1LSTM是簡化版的RNNB1LSTM是雙向的RNNC1LSTM是多層的RNND1LSTM是RNN的擴(kuò)展,其通過特殊的結(jié)構(gòu)設(shè)計(jì)來避免長期依賴問題第5題標(biāo)準(zhǔn)RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))無法處理更長的上下文間隔,即長期依賴問題。為此Hochreiter&Schmidhuber(1997)提出一種特殊的RNN類型,其通過特殊的結(jié)構(gòu)設(shè)計(jì)來避免長期依賴問題。并被AlexGraves進(jìn)行了改良和推廣。這種改進(jìn)的模型是A1長短期記憶網(wǎng)絡(luò)LSTMB1卷積神經(jīng)網(wǎng)絡(luò)CNNC1多層感知機(jī)MLPD1受限玻爾茲曼機(jī)第6題下列說法錯(cuò)誤的是A1標(biāo)準(zhǔn)RNN隱藏層只有一個(gè)狀態(tài)h,對短期輸入敏感,但難以捕捉長期上下文B1LSTM在隱藏層上增加了一個(gè)長期狀態(tài)c

(cell

state),用于保存長期狀態(tài)。C也被稱為單元狀態(tài)或細(xì)胞狀態(tài)C1LSTM只有長期狀態(tài),沒有隱藏狀態(tài)D1LSTM既有長期狀態(tài),也有隱藏狀態(tài)第7題下列關(guān)于LSTM說法正確的是A1LSTM用三個(gè)控制門記憶長期狀態(tài)B1忘記門控制保存之前的長期狀態(tài)C1輸入門控制更新長期狀態(tài)D1輸出門控制是否把長期狀態(tài)作為當(dāng)前的LSTM的輸出正確答案:ABCD第8題

LSTM通過“門”結(jié)構(gòu)來去除或者增加信息到細(xì)胞狀態(tài)(長期狀態(tài))。為了讓信息選擇性通過,則A1一般需要一個(gè)

sigmoid

神經(jīng)網(wǎng)絡(luò)層和一個(gè)

pointwise

乘法操作B1一般需要一個(gè)

sigmoid

神經(jīng)網(wǎng)絡(luò)層和一個(gè)

pointwise

加法操作C1一般需要一個(gè)

tanh

神經(jīng)網(wǎng)絡(luò)層和一個(gè)

pointwise

乘法操作D一般需要一個(gè)

tanh

神經(jīng)網(wǎng)絡(luò)層和一個(gè)

pointwise

加法操作第9題下列關(guān)于GRU(GatedRecurrentUnitCho,etal.2014)的哪個(gè)描述是錯(cuò)誤的?A1GRU混合了長期狀態(tài)和隱藏狀態(tài)B1和LSTM相同的是,

GRU也有三個(gè)門,即忘記門、更新門和輸出門C1在GRU中,取消了LSTM中的輸出門D1如果reset門為1,而update門為0的話,則GRU完全退化為一個(gè)RNN。第10題下列關(guān)于雙向RNN的說法正確的有A1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出只與前面的序列有關(guān),而與后面的序列無關(guān)B1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出與前面的序列無關(guān),而與后面的序列有關(guān)C1雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出既與前面的序列有關(guān),也與后面的序列有關(guān)D1Bidirectional

RNNs由兩個(gè)RNNs上下疊加組成。輸出由這兩個(gè)RNNs的隱藏層的狀態(tài)決定正確答案:CD第六講作業(yè)第1題在卷積神經(jīng)網(wǎng)絡(luò)的某個(gè)降采樣層(pooling層)中,經(jīng)過降采樣處理,得到了16個(gè)5*5的特征圖,其每個(gè)單元與上一層的2*2鄰域連接(滑動(dòng)窗口為2*2)。則該降采樣層的尺寸和上一個(gè)層的尺寸的關(guān)系是?A

降采樣層的尺寸是上一層的尺寸的1/2B降采樣層的尺寸是上一層的尺寸的1/4C

降采樣層的尺寸是上一層的尺寸的1/8D降采樣層的尺寸是上一層的尺寸的4倍第2題關(guān)于采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類和文本分類的比較,下列說法錯(cuò)誤的是A卷積神經(jīng)網(wǎng)絡(luò)只能用于圖像分類,不能用于文本分類,沒有相關(guān)文獻(xiàn);B

使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類,一般將句子中每個(gè)詞表示為固定長度的向量,這樣句子就可以表示為矩陣,從而使得在結(jié)構(gòu)上與圖像類似,并在后續(xù)進(jìn)行卷積等處理C

圖像處理應(yīng)用中,卷積核處理的局部區(qū)域?yàn)閳D像的一小塊區(qū)域,而在文本分類時(shí)卷積核處理的局部區(qū)域通常為相鄰的上下幾行(幾個(gè)詞)。因此卷積核的寬度和輸入矩陣的寬度相等D

使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類或者文檔分類,卷積提取的特征與采用n-gram模式提取的特征類似第3題關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說法正確的是A1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸逐漸變大B1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸逐漸變小C1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸大小不變D1從開始的層到后面的層,經(jīng)過變換得到的特征圖的尺寸開始變小,后來變大第4題關(guān)于卷積神經(jīng)網(wǎng)絡(luò)中池化處理(pooling)的說法正確的是A1在卷積神經(jīng)網(wǎng)絡(luò)中,卷積的下一步通常是進(jìn)行池化處理(pooling)B1池化處理主要是對不同位置的特征進(jìn)行聚合統(tǒng)計(jì)C1池化處理起到了減少了參數(shù)和降維的作用D1常用的池化做法是對每個(gè)濾波器的輸出求最大值、平均值等正確答案:ABCD第5題下列關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的描述正確的是A1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是全連接網(wǎng)絡(luò)B1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是部分連接網(wǎng)絡(luò)C1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開始的若干層是局部連接,最后的層是全連接D1卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開始的若干層是全連接,最后的層是局部連接第6題

在卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?A1卷積層后為池化層,然后還是卷積層-池化層B1多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層C1網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層D1網(wǎng)絡(luò)中最開始的幾個(gè)層是全連接層正確答案:AC第7題卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)特點(diǎn)是“參數(shù)共享”。下面關(guān)于“參數(shù)共享”的哪種說法是正確的?A1如果參數(shù)較多,則容易導(dǎo)致過擬合。而減少參數(shù)有助于避免過擬合B1參數(shù)共享的優(yōu)勢是通過一個(gè)任務(wù)上學(xué)習(xí)到的參數(shù)可以直接應(yīng)用到另外一個(gè)任務(wù)上C1可以允許一個(gè)特征檢測器在整個(gè)輸入圖像的不同位置使用,即可以把參數(shù)看成是卷積提取特征的方式,該方式與位置無關(guān)D1參數(shù)越多,才能避免過擬合,減少參數(shù)容易導(dǎo)致過擬合正確答案:AC第8題

由于池化層沒有需要求解的參數(shù),因此其對反向傳播中梯度計(jì)算沒有影響第9題假設(shè)輸入的圖像為100*100像素(RGB)的圖像,并且沒有使用卷積神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有50個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入圖像是全連接的關(guān)系,則這個(gè)隱藏層需要多少參數(shù)(包括偏置參數(shù))?A11,

500,

000B11,

500,

050C1500,

000D11,

500,

001第10題

對一個(gè)灰度圖像應(yīng)用如下的過濾器會(huì)達(dá)到什么效果?10-110-110-1A1實(shí)現(xiàn)水平方向邊緣檢測B1實(shí)現(xiàn)豎直方向邊緣檢測C1實(shí)現(xiàn)45度邊緣檢測D1實(shí)現(xiàn)圖像對比度檢測第七講作業(yè)第1題關(guān)于文檔的向量表示模型,采用深度學(xué)習(xí)中的詞向量表示模型和傳統(tǒng)的單純基于詞頻向量表示方法的區(qū)別的描述錯(cuò)誤的是A傳統(tǒng)文檔的表示一般采用詞袋BOW模型,表示為高維向量B深度學(xué)習(xí)中的詞向量表示模型通常是一種低維度向量C深度學(xué)習(xí)中的詞向量表示模型存在的一個(gè)突出問題就是“詞匯鴻溝”現(xiàn)象D

傳統(tǒng)方法中詞向量表示模型存在一個(gè)突出問題就是“詞匯鴻溝”現(xiàn)象第2題關(guān)于利用Word2vec獲取詞向量,下列說法錯(cuò)誤的是A1Word2vec可以將詞表示為低維實(shí)數(shù)值B1Word2vec的向量輸出既可以采用二進(jìn)制存儲(chǔ),也可以普通存儲(chǔ)(可以看到詞語和對應(yīng)的向量)C1Word2vec需要利用到較大規(guī)模的語料進(jìn)行訓(xùn)練D1Word2vec不需要利用語料進(jìn)行訓(xùn)練第3題關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),下列描述正確的是A1模型的網(wǎng)絡(luò)結(jié)構(gòu)是通過句法分析得到的B1語料自身富含情感傾向信息C1訓(xùn)練語料采用人工標(biāo)注D1父節(jié)點(diǎn)的向量通過利用組合函數(shù)g由其孩子節(jié)點(diǎn)的向量得到正確答案:ABCD第4題下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),錯(cuò)誤的是A1每個(gè)詞通常初始化表示為一個(gè)d維的向量。由一個(gè)隨機(jī)均勻分布隨機(jī)采樣生成B1所有的詞向量被存儲(chǔ)在一個(gè)詞嵌入矩陣中。隨著訓(xùn)練的進(jìn)行,該矩陣將被視為一種參數(shù),因此會(huì)被學(xué)習(xí)調(diào)整C1不同長度和句法類型的句子其組合詞向量的維度都不同D1樹結(jié)構(gòu)基于句法分析器生成第5題下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011)的描述正確的是A

假設(shè)節(jié)點(diǎn)p1的詞向量為a,

則需要將其乘以分類矩陣Ws,然后再傳給softmax,以進(jìn)行情感分類概率分布的計(jì)算B假設(shè)節(jié)點(diǎn)p1的詞向量為a,

則直接輸出作為情感分類概率C

假設(shè)節(jié)點(diǎn)p1的詞向量為a,

則直接傳給softmax分類器以計(jì)算情感分類概率D標(biāo)準(zhǔn)遞歸神經(jīng)網(wǎng)絡(luò)RNN后期的版本是MV-RNN和RNTN正確答案:AD第6題關(guān)于RNTN(Socheretal.,2013),下列正確的是A

該結(jié)構(gòu)的優(yōu)點(diǎn)是相對于MV-RNN,其效率大幅提升B

標(biāo)準(zhǔn)RNN(遞歸神經(jīng)網(wǎng)絡(luò))相當(dāng)于RNTN的一種特殊情況C

采用了張量層矩陣D

其它選項(xiàng)都不對正確答案:ABC第7題神經(jīng)網(wǎng)絡(luò)中梯度下降法的訓(xùn)練步驟通常如何?1.根據(jù)樣本預(yù)測值和真實(shí)值之間的誤差,計(jì)算損失函數(shù)2.迭代更新,直到模型整體誤差小于閾值或者達(dá)到預(yù)定的迭代次數(shù)3.把樣本輸入給模型,得到預(yù)測值4.初始化模型的參數(shù),如權(quán)重和偏差等5.反向傳播,按照梯度下降的方向改變神經(jīng)元相應(yīng)的權(quán)重值A(chǔ)1,2,3,4,5B5,4,3,2,1C3,2,1,5,4D4,3,1,5,2第8題下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)采用權(quán)重共享機(jī)制?A卷積神經(jīng)網(wǎng)絡(luò)B

循環(huán)神經(jīng)網(wǎng)絡(luò)C全連接神經(jīng)網(wǎng)絡(luò)D

多層感知機(jī)正確答案:AB第9題在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)可以用于抑制過擬合?

A1DropoutB1正則化C1盡量增加選取特征變量的數(shù)量D1盡可能選用復(fù)雜的模型正確答案:AB第10題在很多神經(jīng)網(wǎng)絡(luò)分類系統(tǒng)中,假設(shè)共計(jì)有K個(gè)類,通常在輸出層希望輸出樣本屬于K個(gè)類中每個(gè)類的概率(在0和1之間),且使得這些概率的和等于1。則下列哪個(gè)函數(shù)可以用在輸出層中以達(dá)到上述目的?A1SigmoidB1ReLuC1Softma

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論