雨課堂在線學(xué)堂《深度學(xué)習(xí)基礎(chǔ)》單元考核測(cè)試答案_第1頁(yè)
雨課堂在線學(xué)堂《深度學(xué)習(xí)基礎(chǔ)》單元考核測(cè)試答案_第2頁(yè)
雨課堂在線學(xué)堂《深度學(xué)習(xí)基礎(chǔ)》單元考核測(cè)試答案_第3頁(yè)
雨課堂在線學(xué)堂《深度學(xué)習(xí)基礎(chǔ)》單元考核測(cè)試答案_第4頁(yè)
雨課堂在線學(xué)堂《深度學(xué)習(xí)基礎(chǔ)》單元考核測(cè)試答案_第5頁(yè)
已閱讀5頁(yè),還剩36頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

第一講深度學(xué)習(xí)概述第二講特征工程概述第三講回歸問(wèn)題及正則化第四講信息熵及梯度計(jì)算第五講循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體第六講卷積神經(jīng)網(wǎng)絡(luò)第七講遞歸神經(jīng)網(wǎng)絡(luò)第八講生成式神經(jīng)網(wǎng)絡(luò)第一講深度學(xué)習(xí)概述1/10單選題(1分)機(jī)器學(xué)習(xí)(深度學(xué)習(xí))系統(tǒng)中通常將數(shù)據(jù)集劃分為訓(xùn)練集和測(cè)試集,其中被用來(lái)學(xué)習(xí)得到系統(tǒng)的參數(shù)取值的是訓(xùn)練集(trainingset)測(cè)試集(testingset)訓(xùn)練集(trainingset)和測(cè)試集(testingset)其它選項(xiàng)都不對(duì)答案:A2/10單選題(1分)測(cè)試集(testingset)用于最終報(bào)告模型的評(píng)價(jià)結(jié)果,因此在訓(xùn)練階段測(cè)試集中的數(shù)據(jù)一般是否可以出現(xiàn)在訓(xùn)練集中?不可以可以答案:A3/10多選題(1分)超參數(shù)和參數(shù)的區(qū)別。參數(shù)一般是模型需要根據(jù)訓(xùn)練數(shù)據(jù)可以自動(dòng)學(xué)習(xí)出的變量。超參數(shù)一般就是根據(jù)經(jīng)驗(yàn)確定預(yù)設(shè)的變量。下面哪些是超參數(shù)?深度學(xué)習(xí)模型的權(quán)重,偏差深度學(xué)習(xí)的學(xué)習(xí)速率、人工神經(jīng)網(wǎng)絡(luò)的層數(shù)深度學(xué)習(xí)的迭代次數(shù)深度學(xué)習(xí)的每層神經(jīng)元的個(gè)數(shù)答案:BCD4/10單選題(1分)K折交叉驗(yàn)證通常將數(shù)據(jù)集隨機(jī)分為k個(gè)子集。下列關(guān)于K折交叉驗(yàn)證說(shuō)法錯(cuò)誤的是每次將其中一個(gè)子集作為測(cè)試集,剩下k-1個(gè)子集作為訓(xùn)練集進(jìn)行訓(xùn)練每次將其中一個(gè)子集作為訓(xùn)練集,剩下k-1個(gè)子集作為測(cè)試集進(jìn)行測(cè)試劃分時(shí)有多種方法,例如對(duì)非平衡數(shù)據(jù)可以用分層采樣,就是在每一份子集中都保持和原始數(shù)據(jù)集相同的類(lèi)別比例留一法即k=1的k折交叉驗(yàn)證。留一法計(jì)算最繁瑣,但樣本利用率最高。適合于小樣本的情況答案:B5/10多選題(1分)已知如下定義:Truepositives(TP):被正確地劃分為正例的個(gè)數(shù),即實(shí)際為正例且被分類(lèi)器劃分為正例的實(shí)例數(shù)(樣本數(shù));Falsenegatives(FN):被錯(cuò)誤地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為正例但被分類(lèi)器劃分為負(fù)例的實(shí)例數(shù);Falsepositives(FP):被錯(cuò)誤地劃分為正例的個(gè)數(shù),即實(shí)際為負(fù)例但被分類(lèi)器劃分為正例的實(shí)例數(shù);Truenegatives(TN):被正確地劃分為負(fù)例的個(gè)數(shù),即實(shí)際為負(fù)例且被分類(lèi)器劃分為負(fù)例的實(shí)例數(shù)。則下面定義正確的是:分類(lèi)準(zhǔn)確率Accuracy=(TP+TN)/(P+N)精確率Precision=TP/(TP+FP)召回率Recall=TP/P以上都不對(duì)答案:ABC6/10單選題(1分)F值的公式為Fβ=[(1+β2)*Precision*Recall]/(β2*Precision+Recall),即其為準(zhǔn)確率和召回率的調(diào)和平均。如果二者(即準(zhǔn)確率和召回率)同等重要,則為F1F2F0.5F3答案:A7/10單選題(1分)ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)描繪了分類(lèi)器在fprate(錯(cuò)誤的正例,橫軸)和tprate(真正正例,縱軸)間的trade-off(權(quán)衡)。下面說(shuō)法正確的是:A.(縱軸)敏感性高=漏診率低,而(橫軸)特異性低=誤診率高(縱軸)敏感性高=漏診率高,而(橫軸)特異性低=誤診率高(縱軸)敏感性高=漏診率高,而(橫軸)特異性低=誤診率低(縱軸)敏感性高=漏診率低,而(橫軸)特異性低=誤診率低答案:A8/10多選題(1分)關(guān)于ROC(受試者工作特征曲線,receiveroperatingcharacteristiccurve)中AUC(AreaUnderCurve)說(shuō)法正確的是定義為ROC曲線下的面積AUC值提供了分類(lèi)器的一個(gè)整體數(shù)值。通常AUC越大,分類(lèi)器更好取值范圍為[0,1]其它都不對(duì)答案:ABC9/10多選題(1分)關(guān)于Cohen'skappa和Fleiss'kappa的區(qū)別:Cohen’skappa主要用于衡量?jī)蓚€(gè)評(píng)價(jià)者(raters)之間的一致性(agreement).如果評(píng)價(jià)者多于2人時(shí),可以考慮使用Fleiss'kappa.二者沒(méi)有本質(zhì)區(qū)別,可以等價(jià)其它選項(xiàng)都不對(duì)答案:AB10/10單選題(1分)關(guān)于Cohen'skappa取值的含義,下列錯(cuò)誤的是:其取值通常在-1和+1之間其取值為+1,說(shuō)明一致性最好其取值越大,說(shuō)明一致性越好其取值越小,說(shuō)明一致性越好答案:D第二講特征工程概述1/10多選題(1分)自然語(yǔ)言處理中為了計(jì)算文檔之間的相似度,往往需進(jìn)行文檔的量化表示,下面關(guān)于BOW(即Bag-Of-Wordsmodel)和VSM(VectorSpaceModel)的描述正確的是:BOW,即詞袋模型。即為了計(jì)算文檔之間的相似度,假設(shè)可以忽略文檔內(nèi)的單詞順序和語(yǔ)法、句法等要素,將其僅僅看作是若干個(gè)詞匯的集合。VSM,即向量空間模型。是一種表示文本文檔的數(shù)學(xué)模型。將每個(gè)文檔表示成同一向量空間的向量。在VSM,即向量空間模型中,所有文檔的向量維度的數(shù)目都相同。其它選項(xiàng)都不對(duì)答案:ABC2/10單選題(1分)為了在python程序中進(jìn)行英文自然語(yǔ)言的處理,如詞語(yǔ)切分(Tokenization)詞干提?。⊿temming)等工作,需要使用的導(dǎo)入模塊語(yǔ)句通常為:importmatplotlib.pyplotaspltimportnltkimportnumpyasnpfromsklearnimportsvm,datasets答案:B3/10單選題(1分)為了進(jìn)行中文的分詞或者詞性標(biāo)注等處理,可以使用的導(dǎo)入模塊語(yǔ)句為:importmatplotlib.pyplotaspltimportnumpyasnpimportjiebafromsklearnimportsvm,datasets答案:C4/10多選題(1分)對(duì)于文本“Iliketoeatapple”,則下列關(guān)于N-gram的描述正確的是其Uni-gram為“I”,“l(fā)ike”,“to”,“eat”,“apple”其Bi-gram為“Ilike”,“l(fā)iketo”,“toeat”,“eatapple”其Tri-gram為“Iliketo”,“l(fā)iketoeat”,“toeatapple”其它選項(xiàng)都不對(duì)答案:ABC5/10單選題(1分)關(guān)于特征降維方法有線性判別分析(LDA)和主成分分析法(PCA),錯(cuò)誤的是LDA和PCA的共同點(diǎn)是,都可以將原始的樣本映射到維度更低的樣本空間LDA是為了讓映射后的樣本有最好的分類(lèi)性能。即LDA是一種有監(jiān)督的降維方法PCA是為了讓映射后的樣本具有最大的發(fā)散性,即PCA是一種無(wú)監(jiān)督的降維方法LDA和PCA都是有監(jiān)督的降維方法答案:D6/10單選題(1分)對(duì)于下面的一段python程序,計(jì)算的是向量之間的importnumpyasnpx=np.random.random(5)y=np.random.random(5)sim=np.dot(x,y)/(np.linalg.norm(x)*np.linalg.norm(y))歐氏距離余弦相似度歐式相似度馬修相關(guān)系數(shù)答案:B7/10單選題(1分)對(duì)于下面的一段python程序,sim中保存的是向量之間的:importnumpyasnpx=np.random.random(5)y=np.random.random(5)fromscipy.spatial.distanceimportpdistX=np.vstack([x,y])sim=1-pdist(X,'cosine')歐氏距離余弦相似度余弦距離馬修相關(guān)系數(shù)答案:B8/10單選題(1分)下面的一段python程序的目的是使用主成分分析法(principalcomponentanalysis)對(duì)iris數(shù)據(jù)集進(jìn)行特征降維,以便于數(shù)據(jù)的二維平面可視化。則其中空格處應(yīng)該填充的數(shù)字為?importmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.datasetsimportload_irisdata=load_iris()X=data.datay=data.targetpca=PCA(n_components=)reduced_X=pca.fit_transform(X)1234答案:B9/10單選題(1分)下圖是使用主成分分析法對(duì)iris數(shù)據(jù)集進(jìn)行特征降維并進(jìn)行二維平面可視化的結(jié)果。則為了繪圖,需要使用的導(dǎo)入語(yǔ)句是下面哪一種?pca.pngimportmatplotlib.pyplotaspltfromsklearn.decompositionimportPCAfromsklearn.ldaimportLDAimportnumpyasnp答案:A10/10單選題(1分)下面哪一條語(yǔ)句是用于導(dǎo)入nltk中的英文詞性標(biāo)注的模塊?fromnltkimportword_tokenizefromnltk.stemimportPorterStemmerfromnltkimportpos_tagfromnltk.corpusimporttreebank答案:C第三講回歸問(wèn)題及正則化1/10單選題(1分)關(guān)于線性模型,下列說(shuō)法錯(cuò)誤的是狹義線性模型通常是指自變量與因變量之間呈按比例、成直線的關(guān)系。一階導(dǎo)數(shù)不為常數(shù)線性通常表現(xiàn)為1次曲線廣義線性是線性模型的擴(kuò)展,主要通過(guò)聯(lián)結(jié)函數(shù),使預(yù)測(cè)值落在響應(yīng)變量的變幅內(nèi)非線性一般指不按比例、不成直線的關(guān)系,一階導(dǎo)數(shù)不為常數(shù)答案:A2/10多選題(1分)下列哪些是常見(jiàn)的非線性回歸模型?2次以上的多項(xiàng)式雙曲線模型冪函數(shù)模型指數(shù)函數(shù)模型答案:ABDC3/10單選題(1分)下列關(guān)于梯度下降(Gradientdescent)法的描述錯(cuò)誤的是梯度下降是利用一階的梯度信息找到代價(jià)函數(shù)局部最優(yōu)解的一種方法通常會(huì)先初始化一組參數(shù)值,然后在這個(gè)值之上,用梯度下降法去求出下一組的值。由于是梯度下降的,所以損失函數(shù)的值在下降。當(dāng)?shù)揭欢ǔ潭?,此時(shí)的參數(shù)取值即為要求得的值學(xué)習(xí)速率的選取很關(guān)鍵,如果學(xué)習(xí)速率取值過(guò)大,容易達(dá)不到極值點(diǎn)甚至?xí)l(fā)散,學(xué)習(xí)速率太小容易導(dǎo)致收斂時(shí)間過(guò)長(zhǎng)其中的學(xué)習(xí)速率是模型參數(shù),而不是超參數(shù)答案:D4/10單選題(1分)下面的一段python程序是使用scikit-learn來(lái)構(gòu)建線性回歸模型,其中最后一條語(yǔ)句的目的是得到X_test的預(yù)測(cè)結(jié)果,則空格內(nèi)應(yīng)該填入的函數(shù)為fromsklearn.linear_modelimportLinearRegressionX=[[6,2],[8,1],[10,0],[14,2],[18,0]]y=[[7],[9],[13],[17.5],[18]]model=LinearRegression()model.fit(X,y)X_test=[[8,2],[9,0],[11,2],[16,2],[12,0]]y_test=[[11],[8.5],[15],[18],[11]]predictions=model.(X_test)predictgetpredlearn答案:A5/10多選題(1分)對(duì)某數(shù)據(jù)集進(jìn)行高次多項(xiàng)式的回歸,逐漸增加多項(xiàng)式的次數(shù),如采用七次多項(xiàng)式回歸擬合,曲線經(jīng)過(guò)了所有訓(xùn)練集中的點(diǎn),但在測(cè)試集上的R方值卻變得更低了。則以下表述正確的是發(fā)生了過(guò)擬合較為嚴(yán)重(overfitting)的情況發(fā)生了欠擬合較為嚴(yán)重(underfitting)的情況學(xué)習(xí)得到了一個(gè)非常好的模型,其在測(cè)試集上的表現(xiàn)最好R方值越大,則模型性能越好答案:DA6/10單選題(1分)下列關(guān)于邏輯回歸的描述錯(cuò)誤的是線性回歸的結(jié)果輸出通常是一個(gè)連續(xù)值,值的范圍是無(wú)法限定的。邏輯回歸通過(guò)使用sigmoid函數(shù)將其轉(zhuǎn)為(-1,1)的一個(gè)概率值,從而能夠完成對(duì)事件發(fā)生的概率進(jìn)行預(yù)測(cè)。邏輯回歸可以被理解為是一個(gè)被logistic方程歸一化后的線性回歸。邏輯回歸屬于連接函數(shù)為sigmoid函數(shù)的廣義線性模型。Sigmoid函數(shù)有個(gè)很漂亮的“S”形,特點(diǎn)是一開(kāi)始變化快,逐漸減慢,最后飽和。答案:A7/10單選題(1分)scikit-learn中的邏輯回歸解決方案“l(fā)iblinear”使用的是CD優(yōu)化(即coordinatedescent,坐標(biāo)下降)算法,則下面的描述錯(cuò)誤的是:CD是一種梯度優(yōu)化算法。在每次迭代中,該方法在當(dāng)前點(diǎn)處沿一個(gè)坐標(biāo)方向進(jìn)行一維搜索以求得一個(gè)函數(shù)的局部極小值。在整個(gè)過(guò)程中循環(huán)使用不同的坐標(biāo)方向。該方法從一個(gè)初始的猜測(cè)值以求得函數(shù)的局部最優(yōu)值。該方法需要迭代進(jìn)行。如果在某次迭代中,函數(shù)得不到優(yōu)化,說(shuō)明一個(gè)駐點(diǎn)已經(jīng)達(dá)到。但是對(duì)于非平滑函數(shù),坐標(biāo)下降法可能會(huì)在在非駐點(diǎn)中斷執(zhí)行答案:A8/10單選題(1分)在scikit-learn中,如何處理多類(lèi)分類(lèi)(Multi-classclassification)問(wèn)題?scikit-learn無(wú)法實(shí)現(xiàn)多類(lèi)分類(lèi)scikit-learn只能用one-vs.-all實(shí)現(xiàn)多類(lèi)分類(lèi)scikit-learn只能用one-vs.-the-rest方法實(shí)現(xiàn)多類(lèi)分類(lèi)scikit-learn可以使用one-vs-one或one-vs.-the-rest方法實(shí)現(xiàn)多類(lèi)分類(lèi),即將多類(lèi)分類(lèi)問(wèn)題轉(zhuǎn)化為構(gòu)建若干個(gè)兩類(lèi)的分類(lèi)器答案:D9/10單選題(1分)下面關(guān)于嶺(Ridge)回歸的描述正確的是嶺回歸使用L1正則化嶺回歸使用L2正則化嶺回歸使用L1+L2正則化嶺回歸不使用正則化答案:B10/10單選題(1分)下面關(guān)于Lasso回歸的描述正確的是Lasso回歸使用L1正則化Lasso回歸使用L2正則化Lasso回歸使用L1+L2正則化Lasso回歸不使用正則化答案:A第四講信息熵及梯度計(jì)算1/10單選題(1分)下面關(guān)于信息熵的描述中錯(cuò)誤的是:熱力學(xué)中的熱熵是表示分子狀態(tài)混亂程度的物理量。信息熵概念的提出受到了熱力學(xué)中的熱熵的概念的啟發(fā)信息熵由Shannon提出,信息熵的概念可以用來(lái)描述信源的不確定度信息熵是通信領(lǐng)域的概念,和機(jī)器學(xué)習(xí)以及深度學(xué)習(xí)無(wú)關(guān)在深度學(xué)習(xí)中,經(jīng)常使用交叉熵來(lái)表征兩個(gè)變量概率分布P,Q(假設(shè)P表示真實(shí)分布,Q為模型預(yù)測(cè)的分布)的差異性。答案:C2/10單選題(1分)下面關(guān)于相對(duì)熵(relativeentropy)的說(shuō)法不正確的是相對(duì)熵又稱(chēng)為KL散度(Kullback–Leiblerdivergence)相對(duì)熵又稱(chēng)為信息散度(informationdivergence)相對(duì)熵又稱(chēng)為信息增益(informationgain)相對(duì)熵又被稱(chēng)之為KL距離,因此滿足對(duì)稱(chēng)性答案:D3/10單選題(1分)下面關(guān)于JS散度和KL散度的區(qū)別的說(shuō)法錯(cuò)誤的是KL散度不具對(duì)稱(chēng)性JS散度具備對(duì)稱(chēng)性JS散度在KL散度的基礎(chǔ)上進(jìn)行了改進(jìn)二者都不具備對(duì)稱(chēng)性答案:D4/10單選題(1分)關(guān)于感知機(jī)(perceptron),下列說(shuō)法錯(cuò)誤的是感知機(jī)由Rosenblatt于1957年提出,是神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)感知機(jī)是二分類(lèi)的線性分類(lèi)模型,屬于有監(jiān)督學(xué)習(xí)算法感知機(jī)是二分類(lèi)的線性分類(lèi)模型,屬于無(wú)監(jiān)督學(xué)習(xí)算法感知機(jī)的預(yù)測(cè)是用學(xué)習(xí)得到的感知機(jī)模型對(duì)新的實(shí)例進(jìn)行預(yù)測(cè)的,因此屬于判別模型。答案:C5/10單選題(1分)下列哪種概念表達(dá)了在已知隨機(jī)變量Y的條件下隨機(jī)變量X的不確定性?交叉熵互信息條件熵相對(duì)熵答案:C6/10單選題(1分)對(duì)于下面的一段python程序,下面的說(shuō)法錯(cuò)誤的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])kl1=np.sum(p*np.log(p/q))kl2=np.sum(q*np.log(q/p))程序最后兩行的計(jì)算結(jié)果是相等的程序最后兩行的計(jì)算結(jié)果是不相等的程序最后兩行的的目的是計(jì)算相對(duì)熵,其是交叉熵與信息熵的差值程序的目的是計(jì)算相對(duì)熵,其不具備對(duì)稱(chēng)性答案:A7/10單選題(1分)對(duì)于下面的一段python程序,下面的說(shuō)法正確的是importnumpyasnpp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*np.sum(p*np.log(p/M))+0.5*np.sum(q*np.log(q/M))最后一行是計(jì)算p和q之間的KL散度最后一行是計(jì)算p和q之間的JS散度最后一行是計(jì)算p和q之間的條件熵最后一行是計(jì)算p和q之間的交叉熵答案:B8/10單選題(1分)對(duì)于下面的一段python程序,下面的說(shuō)法正確的是importnumpyasnpimportscipy.statsp=np.asarray([0.65,0.25,0.07,0.03])q=np.array([0.6,0.25,0.1,0.05])M=(p+q)/2result=0.5*scipy.stats.entropy(p,M)+0.5*scipy.stats.entropy(q,M)最后一行是計(jì)算p和q之間的KL散度最后一行是計(jì)算p和q之間的JS散度最后一行是計(jì)算p和q之間的條件熵最后一行是計(jì)算p和q之間的交叉熵答案:B9/10單選題(1分)對(duì)于下面的一段python程序,下面的說(shuō)法正確的是importnumpyasnppredicted=np.array([11.2,2.5,7.9,7.2])label=np.array([1,0,0,0])defsoftmax(x):returnnp.exp(x)/np.sum(np.exp(x),axis=0)print(softmax(predicted))loss=-np.sum(label*np.log(softmax(predicted)))最后一行是計(jì)算predicted和label之間的互信息最后一行是計(jì)算predicted和label之間的JS散度最后一行是計(jì)算predicted和label之間的條件熵最后一行是計(jì)算predicted和label之間的交叉熵答案:D10/10單選題(1分)對(duì)于給定的下面的一段python程序及其輸出,下面的說(shuō)法正確的是importnumpyasnpa=np.asarray([0.5,0.5])#假設(shè)a為實(shí)際分布b=np.array([0.25,0.75])c=np.array([0.125,0.875])kl1=np.sum(a*np.log(a/b))print("b,a",kl1)kl2=np.sum(a*np.log(a/c))print("c,a",kl2)其輸出結(jié)果為b,a0.143841036226c,a0.413339286592程序的輸出是計(jì)算了條件熵程序的輸出是計(jì)算了互信息b和c相比,更接近實(shí)際分布ac和b相比,更接近實(shí)際分布a答案:C第五講循環(huán)神經(jīng)網(wǎng)絡(luò)及其變體1/10多選題(1分)下列哪種模型更適合序列建模與預(yù)測(cè)?循環(huán)神經(jīng)網(wǎng)絡(luò)RNN卷積神經(jīng)網(wǎng)絡(luò)CNN多層感知機(jī)長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)LSTM答案:AD2/10單選題(1分)下列關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)說(shuō)法錯(cuò)誤的是隱藏層之間的節(jié)點(diǎn)有連接隱藏層之間的節(jié)點(diǎn)沒(méi)有連接隱藏層的輸入不僅包括輸入層的輸出,還包括上一時(shí)刻隱藏層的輸出網(wǎng)絡(luò)會(huì)對(duì)之前時(shí)刻的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中答案:B3/10多選題(1分)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(RecurrentNeuralNetworks)可以處理哪些情況?多對(duì)多的同步序列輸入輸出。如詞性標(biāo)注等多對(duì)一的處理,如判斷一段文字的情感分類(lèi)多對(duì)多的非同步序列輸入和序列輸出,如機(jī)器翻譯中輸入英文語(yǔ)句然后翻譯為法語(yǔ)形式輸出一對(duì)多的序列輸出。如輸入一張圖片,生成輸出一段文字序列答案:ABCD4/10單選題(1分)下列關(guān)于長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM和循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的關(guān)系描述正確的是LSTM是簡(jiǎn)化版的RNNLSTM是雙向的RNNLSTM是多層的RNNLSTM是RNN的擴(kuò)展,其通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴(lài)問(wèn)題答案:D5/10單選題(1分)標(biāo)準(zhǔn)RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))無(wú)法處理更長(zhǎng)的上下文間隔,即長(zhǎng)期依賴(lài)問(wèn)題。為此Hochreiter&Schmidhuber(1997)提出一種特殊的RNN類(lèi)型,其通過(guò)特殊的結(jié)構(gòu)設(shè)計(jì)來(lái)避免長(zhǎng)期依賴(lài)問(wèn)題。并被AlexGraves進(jìn)行了改良和推廣。這種改進(jìn)的模型是長(zhǎng)短期記憶網(wǎng)絡(luò)LSTM卷積神經(jīng)網(wǎng)絡(luò)CNN多層感知機(jī)MLP受限玻爾茲曼機(jī)答案:A6/10單選題(1分)下列說(shuō)法錯(cuò)誤的是標(biāo)準(zhǔn)RNN隱藏層只有一個(gè)狀態(tài)h,對(duì)短期輸入敏感,但難以捕捉長(zhǎng)期上下文LSTM在隱藏層上增加了一個(gè)長(zhǎng)期狀態(tài)c(cellstate),用于保存長(zhǎng)期狀態(tài)。C也被稱(chēng)為單元狀態(tài)或細(xì)胞狀態(tài)LSTM只有長(zhǎng)期狀態(tài),沒(méi)有隱藏狀態(tài)LSTM既有長(zhǎng)期狀態(tài),也有隱藏狀態(tài)答案:C7/10多選題(1分)下列關(guān)于LSTM說(shuō)法正確的是LSTM用三個(gè)控制門(mén)記憶長(zhǎng)期狀態(tài)忘記門(mén)控制保存之前的長(zhǎng)期狀態(tài)輸入門(mén)控制更新長(zhǎng)期狀態(tài)輸出門(mén)控制是否把長(zhǎng)期狀態(tài)作為當(dāng)前的LSTM的輸出答案:ABCD8/10單選題(1分)LSTM通過(guò)“門(mén)”結(jié)構(gòu)來(lái)去除或者增加信息到細(xì)胞狀態(tài)(長(zhǎng)期狀態(tài))。為了讓信息選擇性通過(guò),則一般需要一個(gè)sigmoid神經(jīng)網(wǎng)絡(luò)層和一個(gè)pointwise乘法操作一般需要一個(gè)sigmoid神經(jīng)網(wǎng)絡(luò)層和一個(gè)pointwise加法操作一般需要一個(gè)tanh神經(jīng)網(wǎng)絡(luò)層和一個(gè)pointwise乘法操作一般需要一個(gè)tanh神經(jīng)網(wǎng)絡(luò)層和一個(gè)pointwise加法操作答案:A9/10單選題(1分)下列關(guān)于GRU(GatedRecurrentUnitCho,etal.2014)的哪個(gè)描述是錯(cuò)誤的?GRU混合了長(zhǎng)期狀態(tài)和隱藏狀態(tài)和LSTM相同的是,GRU也有三個(gè)門(mén),即忘記門(mén)、更新門(mén)和輸出門(mén)在GRU中,取消了LSTM中的輸出門(mén)如果reset門(mén)為1,而update門(mén)為0的話,則GRU完全退化為一個(gè)RNN。答案:B10/10多選題(1分)下列關(guān)于雙向RNN的說(shuō)法正確的有雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出只與前面的序列有關(guān),而與后面的序列無(wú)關(guān)雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出與前面的序列無(wú)關(guān),而與后面的序列有關(guān)雙向網(wǎng)絡(luò)假設(shè)當(dāng)前步的輸出既與前面的序列有關(guān),也與后面的序列有關(guān)BidirectionalRNNs由兩個(gè)RNNs上下疊加組成。輸出由這兩個(gè)RNNs的隱藏層的狀態(tài)決定答案:CD第六講卷積神經(jīng)網(wǎng)絡(luò)1/10單選題(1分)在卷積神經(jīng)網(wǎng)絡(luò)的某個(gè)降采樣層(pooling層)中,經(jīng)過(guò)降采樣處理,得到了16個(gè)5*5的特征圖,其每個(gè)單元與上一層的2*2鄰域連接(滑動(dòng)窗口為2*2)。則該降采樣層的尺寸和上一個(gè)層的尺寸的關(guān)系是?降采樣層的尺寸是上一層的尺寸的1/2降采樣層的尺寸是上一層的尺寸的1/4降采樣層的尺寸是上一層的尺寸的1/8降采樣層的尺寸是上一層的尺寸的4倍答案:B2/10單選題(1分)關(guān)于采用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類(lèi)和文本分類(lèi)的比較,下列說(shuō)法錯(cuò)誤的是卷積神經(jīng)網(wǎng)絡(luò)只能用于圖像分類(lèi),不能用于文本分類(lèi),沒(méi)有相關(guān)文獻(xiàn);使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類(lèi),一般將句子中每個(gè)詞表示為固定長(zhǎng)度的向量,這樣句子就可以表示為矩陣,從而使得在結(jié)構(gòu)上與圖像類(lèi)似,并在后續(xù)進(jìn)行卷積等處理圖像處理應(yīng)用中,卷積核處理的局部區(qū)域?yàn)閳D像的一小塊區(qū)域,而在文本分類(lèi)時(shí)卷積核處理的局部區(qū)域通常為相鄰的上下幾行(幾個(gè)詞)。因此卷積核的寬度和輸入矩陣的寬度相等使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行句子分類(lèi)或者文檔分類(lèi),卷積提取的特征與采用n-gram模式提取的特征類(lèi)似答案:A3/10單選題(1分)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說(shuō)法正確的是從開(kāi)始的層到后面的層,經(jīng)過(guò)變換得到的特征圖的尺寸逐漸變大從開(kāi)始的層到后面的層,經(jīng)過(guò)變換得到的特征圖的尺寸逐漸變小從開(kāi)始的層到后面的層,經(jīng)過(guò)變換得到的特征圖的尺寸大小不變從開(kāi)始的層到后面的層,經(jīng)過(guò)變換得到的特征圖的尺寸開(kāi)始變小,后來(lái)變大答案:B4/10多選題(1分)關(guān)于卷積神經(jīng)網(wǎng)絡(luò)中池化處理(pooling)的說(shuō)法正確的是在卷積神經(jīng)網(wǎng)絡(luò)中,卷積的下一步通常是進(jìn)行池化處理(pooling)池化處理主要是對(duì)不同位置的特征進(jìn)行聚合統(tǒng)計(jì)池化處理起到了減少了參數(shù)和降維的作用常用的池化做法是對(duì)每個(gè)濾波器的輸出求最大值、平均值等答案:ABCD5/10單選題(1分)下列關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的描述正確的是卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是全連接網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的層與層之間都是部分連接網(wǎng)絡(luò)卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開(kāi)始的若干層是局部連接,最后的層是全連接卷積神經(jīng)網(wǎng)絡(luò)的層與層之間既有可能是全連接,也有可能是局部連接。通常是開(kāi)始的若干層是全連接,最后的層是局部連接答案:C6/10多選題(1分)在卷積神經(jīng)網(wǎng)絡(luò)中典型的模式是?卷積層后為池化層,然后還是卷積層-池化層多個(gè)連續(xù)的池化層,然后跟著一個(gè)卷積層網(wǎng)絡(luò)中最后的幾個(gè)層是全連接層網(wǎng)絡(luò)中最開(kāi)始的幾個(gè)層是全連接層答案:AC7/10多選題(1分)卷積神經(jīng)網(wǎng)絡(luò)的一個(gè)特點(diǎn)是“參數(shù)共享”。下面關(guān)于“參數(shù)共享”的哪種說(shuō)法是正確的?如果參數(shù)較多,則容易導(dǎo)致過(guò)擬合。而減少參數(shù)有助于避免過(guò)擬合參數(shù)共享的優(yōu)勢(shì)是通過(guò)一個(gè)任務(wù)上學(xué)習(xí)到的參數(shù)可以直接應(yīng)用到另外一個(gè)任務(wù)上可以允許一個(gè)特征檢測(cè)器在整個(gè)輸入圖像的不同位置使用,即可以把參數(shù)看成是卷積提取特征的方式,該方式與位置無(wú)關(guān)參數(shù)越多,才能避免過(guò)擬合,減少參數(shù)容易導(dǎo)致過(guò)擬合答案:AC8/10判斷題(1分)由于池化層沒(méi)有需要求解的參數(shù),因此其對(duì)反向傳播中梯度計(jì)算沒(méi)有影響答案:×9/10單選題(1分)假設(shè)輸入的圖像為100*100像素(RGB)的圖像,并且沒(méi)有使用卷積神經(jīng)網(wǎng)絡(luò)。如果第一個(gè)隱藏層有50個(gè)神經(jīng)元,每個(gè)神經(jīng)元與輸入圖像是全連接的關(guān)系,則這個(gè)隱藏層需要多少參數(shù)(包括偏置參數(shù))?1,500,0001,500,050500,0001,500,001答案:B10/10單選題(1分)對(duì)一個(gè)灰度圖像應(yīng)用如下的過(guò)濾器會(huì)達(dá)到什么效果?10-110-110-1實(shí)現(xiàn)水平方向邊緣檢測(cè)實(shí)現(xiàn)豎直方向邊緣檢測(cè)實(shí)現(xiàn)45度邊緣檢測(cè)實(shí)現(xiàn)圖像對(duì)比度檢測(cè)答案:B第七講遞歸神經(jīng)網(wǎng)絡(luò)1/10單選題(1分)關(guān)于文檔的向量表示模型,采用深度學(xué)習(xí)中的詞向量表示模型和傳統(tǒng)的單純基于詞頻向量表示方法的區(qū)別的描述錯(cuò)誤的是傳統(tǒng)文檔的表示一般采用詞袋BOW模型,表示為高維向量深度學(xué)習(xí)中的詞向量表示模型通常是一種低維度向量深度學(xué)習(xí)中的詞向量表示模型存在的一個(gè)突出問(wèn)題就是“詞匯鴻溝”現(xiàn)象傳統(tǒng)方法中詞向量表示模型存在一個(gè)突出問(wèn)題就是“詞匯鴻溝”現(xiàn)象答案:C2/10單選題(1分)關(guān)于利用Word2vec獲取詞向量,下列說(shuō)法錯(cuò)誤的是Word2vec可以將詞表示為低維實(shí)數(shù)值Word2vec的向量輸出既可以采用二進(jìn)制存儲(chǔ),也可以普通存儲(chǔ)(可以看到詞語(yǔ)和對(duì)應(yīng)的向量)Word2vec需要利用到較大規(guī)模的語(yǔ)料進(jìn)行訓(xùn)練Word2vec不需要利用語(yǔ)料進(jìn)行訓(xùn)練答案:D3/10多選題(1分)關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),下列描述正確的是模型的網(wǎng)絡(luò)結(jié)構(gòu)是通過(guò)句法分析得到的語(yǔ)料自身富含情感傾向信息訓(xùn)練語(yǔ)料采用人工標(biāo)注父節(jié)點(diǎn)的向量通過(guò)利用組合函數(shù)g由其孩子節(jié)點(diǎn)的向量得到答案:ABCD4/10單選題(1分)下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011),錯(cuò)誤的是每個(gè)詞通常初始化表示為一個(gè)d維的向量。由一個(gè)隨機(jī)均勻分布隨機(jī)采樣生成所有的詞向量被存儲(chǔ)在一個(gè)詞嵌入矩陣中。隨著訓(xùn)練的進(jìn)行,該矩陣將被視為一種參數(shù),因此會(huì)被學(xué)習(xí)調(diào)整不同長(zhǎng)度和句法類(lèi)型的句子其組合詞向量的維度都不同樹(shù)結(jié)構(gòu)基于句法分析器生成答案:C5/10多選題(1分)下列關(guān)于遞歸神經(jīng)網(wǎng)絡(luò)RNN(Socheretal.,2011)的描述正確的是假設(shè)節(jié)點(diǎn)p1的詞向量為a,則需要將其乘以分類(lèi)矩陣Ws,然后再傳給softmax,以進(jìn)行情感分類(lèi)概率分布的計(jì)算假設(shè)節(jié)點(diǎn)p1的詞向量為a,則直接輸出作為情感分類(lèi)概率假設(shè)節(jié)點(diǎn)p1的詞向量為a,則直接傳給softmax分類(lèi)器以計(jì)算情感分類(lèi)概率標(biāo)準(zhǔn)遞歸神經(jīng)網(wǎng)絡(luò)RNN后期的版本是MV-RNN和RNTN答案:AD6/10多選題(1分)關(guān)于RNTN(Socheretal.,2013),下列正確的是該結(jié)構(gòu)的優(yōu)點(diǎn)是相對(duì)于MV-RNN,其效率大幅提升標(biāo)準(zhǔn)RNN(遞歸神經(jīng)網(wǎng)絡(luò))相當(dāng)于RNTN的一種特殊情況采用了張量層矩陣其它選項(xiàng)都不對(duì)答案:ABC7/10單選題(1分)神經(jīng)網(wǎng)絡(luò)中梯度下降法的訓(xùn)練步驟通常如何?1.根據(jù)樣本預(yù)測(cè)值和真實(shí)值之間的誤差,計(jì)算損失函數(shù)2.迭代更新,直到模型整體誤差小于閾值或者達(dá)到預(yù)定的迭代次數(shù)3.把樣本輸入給模型,得到預(yù)測(cè)值4.初始化模型的參數(shù),如權(quán)重和偏差等5.反向傳播,按照梯度下降的方向改變神經(jīng)元相應(yīng)的權(quán)重值1,2,3,4,55,4,3,2,13,2,1,5,44,3,1,5,2答案:D8/10多選題(1分)下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)采用權(quán)重共享機(jī)制?卷積神經(jīng)網(wǎng)絡(luò)循環(huán)神經(jīng)網(wǎng)絡(luò)全連接神經(jīng)網(wǎng)絡(luò)多層感知機(jī)答案:AB9/10多選題(1分)在神經(jīng)網(wǎng)絡(luò)中,以下哪種技術(shù)可以用于抑制過(guò)擬合?Dropout正則化盡量增加選取特征變量的數(shù)量盡可能選用復(fù)雜的模型答案:AB10/10單選題(1分)在很多神經(jīng)網(wǎng)絡(luò)分類(lèi)系統(tǒng)中,假設(shè)共計(jì)有K個(gè)類(lèi),通常在輸出層希望輸出樣本屬于K個(gè)類(lèi)中每個(gè)類(lèi)的概率(在0和1之間),且使得這些概率的和等于1。則下列哪個(gè)函數(shù)可以用在輸出層中以達(dá)到上述目的?SigmoidReLuSoftmaxTanh答案:C第八講生成式神經(jīng)網(wǎng)絡(luò)1/10多選題(1分)下列關(guān)于自動(dòng)編碼器autoencoder的描述正確的是自動(dòng)編碼器不需要解碼器自動(dòng)編碼器

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論