版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第一章
一、判斷題
1.神經(jīng)網(wǎng)絡(luò)中基本的計(jì)算單元是神經(jīng)元。(A)
A正確
B錯(cuò)誤
2.神經(jīng)網(wǎng)絡(luò)中激活函數(shù)的主要作用是提供網(wǎng)絡(luò)的非線性建模能力。(A)
A正確
B錯(cuò)誤
3.TanH函數(shù)也叫雙曲正確函數(shù),其值域范圍在(0,1)之間。(B)
A正確
B錯(cuò)誤
4.神經(jīng)網(wǎng)絡(luò)可以只有輸入層和輸出層,沒有隱藏層。(A)
A正確
B錯(cuò)誤
二、選擇題
1.(單選)常用以下哪種類型的損失函數(shù)來衡量回歸模型效果。(D)
A準(zhǔn)確率(Accuracy)
B錢鏈損失函數(shù)(HingeLoss)
C階梯損失(ClassLoss)
D誤差損失(ErrorLoss)
2.(單選)conda常用命令操作中,以下哪個(gè)命令用于切換到其他虛擬環(huán)境。(C)
Aremove
Bcreate
Cactivate
Dupdate
3.(多選)以下哪些深度學(xué)習(xí)算法屬于無(wú)監(jiān)督學(xué)習(xí)。(BC)
A卷積神經(jīng)網(wǎng)絡(luò)
B白編碼網(wǎng)絡(luò)
C生成式對(duì)抗網(wǎng)絡(luò)
D循環(huán)神經(jīng)網(wǎng)絡(luò)
三、實(shí)訓(xùn)題
1.在自己電腦至少安裝TensorFlow2的CPU或GPU任一版本,并能在python中導(dǎo)入
tensorflow庫(kù)后打印出安裝的版本號(hào)。
第二章
一、判斷題
1.圖像、文本屬于常見的非結(jié)構(gòu)化數(shù)據(jù)。(A)
A正確
B錯(cuò)誤
2.數(shù)據(jù)標(biāo)準(zhǔn)化轉(zhuǎn)換的主要目的是為了消除變量之間的量綱影響,讓經(jīng)過轉(zhuǎn)換后的不同變量
可以平等分析和比較。(A)
A正確
B錯(cuò)誤
3.數(shù)據(jù)標(biāo)準(zhǔn)化轉(zhuǎn)化常用手段之一為Min-Max標(biāo)準(zhǔn)化,轉(zhuǎn)換后各變量的數(shù)據(jù)符合標(biāo)準(zhǔn)正態(tài)
分布,即均值為0,標(biāo)注差為1。(B)
A正確
B錯(cuò)誤
4.使用OpenCV讀取圖像時(shí),其通道順序?yàn)镽GB。(B)
A正確
B錯(cuò)誤
二、選擇題
1.(單選)使用cv2.imread()進(jìn)行圖像讀取時(shí),當(dāng)取以下哪個(gè)值可以按灰度模式讀取圖像。
(C)
Acv2.WINDOW_NORMAL
Bcv2.IMREAD_COLOR
Ccv2.IMREAD_GRAYSCALE
Dcv2.IMREAD_UNCHANGED
2.(單選)使用cv2.resize()可進(jìn)行圖像縮放,當(dāng)取以下哪個(gè)值是基于局部像素的重采樣。
(D)
Acv2.INTER_NEARES
Bcv2.INTER_LINEAR
Ccv2.INTER_CUBIC
DCV2.INTER_AREA
3.(單選)tf.image.resize()可以實(shí)現(xiàn)圖像的縮放功能,參數(shù)method表示圖像縮放的方法,
當(dāng)取以下哪個(gè)值時(shí)表示按照最近鄰插值。(C)
Abilinear
BIanczos3
Cnearest
Darea
4.(單選)Jieba在進(jìn)行分詞時(shí),可通過以下哪種方法在程序中動(dòng)態(tài)修改詞典。(B)
Aload_userdict()
Badd_word()
Cdel_word()
Dget_word()
5.(單選)tf.keras.preprocessing.sequence中的pad_sequences()函數(shù)可用于填充可變長(zhǎng)度
序列,使得文本集中的所有文本長(zhǎng)度相同??梢允褂靡韵履膫€(gè)參數(shù)設(shè)置文本長(zhǎng)度。(C)
Avalue
Bpadding
Cmaxlen
Dtruncating
6.(多選)cv2.flip()可將圖像進(jìn)行翻轉(zhuǎn)變換,關(guān)于第二個(gè)參數(shù)描述正確的有。(ABC)
A1表示水平翻轉(zhuǎn)
B0表示垂直翻轉(zhuǎn)
C表示水平加垂直翻轉(zhuǎn)
D2表示水平加垂直翻轉(zhuǎn)
7.(多選)Jieba分詞結(jié)合了基于規(guī)則和基于統(tǒng)計(jì)這兩類方法。Jieba提供了以下哪些分詞
模式。(ABCD)
A精確模式
B全模式
C搜索引擎模式
Dpaddle模式
三、實(shí)訓(xùn)題
1.在本地文件夾image中有一去rose.jpg的玫瑰花圖片,分別使用OpencV和TensorFlow
兩種方式將其讀取并顯示,效果如下:
2.請(qǐng)利用Jieba庫(kù)對(duì)文本“深度學(xué)習(xí)的數(shù)據(jù)預(yù)處理技術(shù)”進(jìn)行中文分詞,要求不同單詞之
間用分開,且“深度學(xué)習(xí)”需作為一個(gè)專有名詞,不能被分開。效果如下:
分詞前;深度學(xué)習(xí)的數(shù)據(jù)預(yù)處理技術(shù)
分詞后:深度學(xué)習(xí)/的/數(shù)據(jù)/預(yù)處理/技術(shù)
第三章
一、判斷題
1.使用Keras創(chuàng)建深度模型時(shí),當(dāng)定義好網(wǎng)絡(luò)架構(gòu)后即可進(jìn)行網(wǎng)絡(luò)訓(xùn)練。(B)
A.正確
B.錯(cuò)誤
2.使用tf.keras.layers.Dense可以創(chuàng)建神經(jīng)網(wǎng)絡(luò)層,其中參數(shù)units月于指定各網(wǎng)絡(luò)層的神
經(jīng)元數(shù)量。(A)
A.正確
B.錯(cuò)誤
3.定義好模型后可以使用summary。打卬完整的模型摘要,其中Non-trainableparams表
示神經(jīng)網(wǎng)絡(luò)中必須訓(xùn)練的全部參數(shù)數(shù)量。(B)
A.正確
B.錯(cuò)誤
4.Keras通過plot_model()函數(shù)對(duì)網(wǎng)絡(luò)拓?fù)溥M(jìn)行可視化時(shí),參數(shù)show_layer_names為True
時(shí)將顯示每層的名稱。(A)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選)tf.keras.layers.Dense創(chuàng)建神經(jīng)網(wǎng)絡(luò)層時(shí),以下哪個(gè)參數(shù)月于指定網(wǎng)絡(luò)層的激活
函數(shù)。(C)
A.units
B.kerneljnitialize
C.activation
D.input_shape
2.(單選)使用pile。方法編譯模型時(shí),以下哪個(gè)參數(shù)用于指定優(yōu)化器。(A)
A.optimizer
B.loss
C.metrics
D.verbose
3.(單選)使用modeLsave()保存整個(gè)模型時(shí),以下哪個(gè)目錄用于保存模型權(quán)重值。(D)
A.assets
B.keras_metadata.pb
C.saved_model.pb
D.variables
4.(多選)Keras通過plot_model()函數(shù)對(duì)網(wǎng)絡(luò)拓?fù)溥M(jìn)行可視化時(shí),以下哪些參數(shù)為必填
項(xiàng)。(AB)
A.model
B.to_file
C.show_shapes
D.show_layer_names
三、實(shí)訓(xùn)題
1.sklearn庫(kù)的datasets自帶iris數(shù)據(jù)集,我們可以通過以下命令將其導(dǎo)入:
fromsklearnimportdatasets
#導(dǎo)入iris數(shù)據(jù)集
dataset=datasets.load_iris()
x=dataset.data
Y=dataset.target
請(qǐng)按照以下要求創(chuàng)建并訓(xùn)練深度學(xué)習(xí)模型:
▲定義網(wǎng)絡(luò):創(chuàng)建包含兩個(gè)隱藏層的深度學(xué)習(xí)模型,第一個(gè)隱藏層有4個(gè)神經(jīng)元,第
二個(gè)隱藏層有6個(gè)隱藏層,
▲編譯網(wǎng)絡(luò):采用Adam優(yōu)化器,sparse_categorical_crossentropy,采用accuracy
作為評(píng)估指標(biāo)
▲訓(xùn)練網(wǎng)絡(luò):迭代次數(shù)為50次,批次大小為5,并拆10%作為驗(yàn)證集。
2.請(qǐng)對(duì)實(shí)訓(xùn)1訓(xùn)練好的模型對(duì)iris數(shù)據(jù)集進(jìn)行評(píng)估,并輸出評(píng)估的準(zhǔn)確率結(jié)果。
3.請(qǐng)使用modeLsave()將實(shí)訓(xùn)1的整個(gè)模型保存到本地的iris_model文件夾中。
第四章
一、判斷題
1.對(duì)卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行卷積操作中,卷積核的移動(dòng)步長(zhǎng)默認(rèn)為1。(A)
A.正確
B.錯(cuò)誤
2.當(dāng)對(duì)圖像邊界進(jìn)行卷積,在采用邊緣填充技巧(padding)時(shí),常采用1進(jìn)行填充。(B)
A.正確
B.錯(cuò)誤
3.在卷積神經(jīng)網(wǎng)絡(luò)中,池化層可對(duì)輸入的特征圖進(jìn)行壓縮。(A)
A.正確
B.錯(cuò)誤
4.在卷積神經(jīng)網(wǎng)絡(luò)中,池化層會(huì)改變通道數(shù)。(B)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選)利用tf.keras.layers.Conv2D進(jìn)行卷積層操作時(shí),以下哪人參數(shù)用于指定卷積核
的數(shù)量。(A)
A.filters
B.kernel_size
C.strides
D.padding
2.(單選)利用tf.keras.layers.Conv2D進(jìn)行卷積層操作時(shí),當(dāng)參數(shù)wadding為何值時(shí)表示
添加全0填充。(D)
A.True
B.False
C.valid
D.same
3.(多選)卷積神經(jīng)網(wǎng)絡(luò)的池億層具有以下哪些特征。(ABD)
A.沒有要學(xué)習(xí)的參數(shù)
B,通道數(shù)不發(fā)生變化
C.通道數(shù)會(huì)發(fā)生變化
D.對(duì)微小的位置變化具有魯棒性
4.(多選)常用的遷移學(xué)習(xí)方法有以下哪些。(ABCD)
A.基于樣本的遷移
B.基于特征的遷移
C.基于模型的遷移
D.基于關(guān)系的遷移
5.(多選)在強(qiáng)化學(xué)習(xí)中,可以進(jìn)行交互的對(duì)象有哪些。(AC)
A.智能體(agent)
B.狀態(tài)(state)
C.環(huán)境(environment)
D.獎(jiǎng)勵(lì)(reward)
三、實(shí)訓(xùn)題
1.構(gòu)建一個(gè)簡(jiǎn)單的卷積神經(jīng)網(wǎng)絡(luò)對(duì)MNIST手寫數(shù)據(jù)集進(jìn)行識(shí)別,網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)要求如下:
□卷積層,具有64個(gè)特征圖,卷積核大小為3X3,激活函數(shù)為relu。
□采樣因子(pool_size)為2x2的最大值池化層。
□Flatten層。
□具有256個(gè)神經(jīng)元和激活函數(shù)為relu的全連接層。
□具有10個(gè)神經(jīng)元的輸出層,激活函數(shù)為so代max。
編譯模型時(shí),采用RMSProp優(yōu)化器,categorical_crossentropy作為損失函數(shù),同時(shí)采用
準(zhǔn)確率(accuracy)來評(píng)估模型的性能。
訓(xùn)練模型時(shí),訓(xùn)練周期迭代次數(shù)為20次,批次大小為256,并將訓(xùn)練集拆分20%作為
驗(yàn)證集。
請(qǐng)按照以上要求完成卷積神經(jīng)網(wǎng)絡(luò)的構(gòu)建及訓(xùn)練,并繪制訓(xùn)練周期的曲線圖,效果如下:
RainHistory,RainHistory
100
Q25
099
001550ZS10012.515.017.50025SO75100125150175
EpochEpoch
2.對(duì)實(shí)訓(xùn)1構(gòu)建模型的模型,對(duì)測(cè)試集進(jìn)行評(píng)估,并打印出準(zhǔn)確率。效果如下:
又如旅集評(píng)估的準(zhǔn)確率:0.9873
第五章
一、判斷題
1.詞嵌入(WordEmbedding)是一種自然語(yǔ)言處理技術(shù),分學(xué)習(xí)詞掀入和預(yù)訓(xùn)練詞嵌入兩
種方式。其中預(yù)訓(xùn)練詞嵌入指的是在完成預(yù)測(cè)任務(wù)的同時(shí)學(xué)習(xí)詞嵌入。(B)
A.正確
B.錯(cuò)誤
2.tf.keras的Embedding層要求輸入數(shù)據(jù)是整數(shù)編碼。(A)
A.正確
B.錯(cuò)誤
3.在做令牌化(Tokenizer)后,可利用pad_sequences()函數(shù)把各序列填充為相同長(zhǎng)度,其
參數(shù)padding為“post”表示將長(zhǎng)度不足的序列前面用0補(bǔ)全。(B)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選)tf.keras提供的layers.SimpleRNN層可用于定義簡(jiǎn)單循環(huán)神經(jīng)網(wǎng)絡(luò),具中用于控
制除了輸出之外是否還需返回最后一個(gè)狀態(tài)的參數(shù)為以下哪個(gè)。(C)
A.return_sequences
B.go_backwards
C.return_state
D.stateful
2.(多選)tf.keras提供的Embedding層可以有多種使用方式,包括(ABC)
A.可用于單獨(dú)訓(xùn)練詞嵌入模型
B,可用作深度學(xué)習(xí)模型的一部分
C.可用于加載預(yù)訓(xùn)練此嵌入模型
D.可用于數(shù)據(jù)展平
3.(多選)長(zhǎng)短期記憶網(wǎng)絡(luò)用以下哪些門控制通過存儲(chǔ)單元中的信息流動(dòng)(BCD)
A.重置門
B.輸入門
C.遺忘門
D.輸出門
三、實(shí)訓(xùn)題
SMSSpamCollection用于騷擾短信識(shí)別的經(jīng)典數(shù)據(jù)集,完全來自于真實(shí)短信內(nèi)容,包括
了4831個(gè)正常短信和747個(gè)騷擾短信。數(shù)據(jù)保存在一個(gè)SMSSpamCollection.txt文件中,每
行完整記錄一條內(nèi)容,每行可以通過ham和spam來標(biāo)識(shí)正常短信和騷擾短信。
1.創(chuàng)建簡(jiǎn)單訓(xùn)練神經(jīng)網(wǎng)絡(luò)SimpleRNN模型,對(duì)正常短信還是騷擾短信進(jìn)行預(yù)測(cè),請(qǐng)輸出模
型評(píng)估結(jié)果。
2.創(chuàng)建長(zhǎng)短期記憶模型LSTM模型,對(duì)正常短信還是騷擾短信進(jìn)行預(yù)測(cè),請(qǐng)輸出模型評(píng)估
結(jié)果。
3.創(chuàng)建門控循環(huán)單元GRU模型,對(duì)正常短信還是騷擾短信進(jìn)行預(yù)測(cè),請(qǐng)輸出模型評(píng)估結(jié)
果。
4.利用KerasNLP創(chuàng)建Transformer模型,對(duì)正常短信還是騷擾短信進(jìn)行預(yù)測(cè),請(qǐng)輸出模型
評(píng)估結(jié)果。
行、.立.
第八章
一、判斷題
1.自編碼器屬于有監(jiān)督學(xué)習(xí)。(B)
A.正確
B.錯(cuò)誤
2.自編碼器可用于數(shù)據(jù)去燥。(A)
A.正確
B.錯(cuò)誤
3.堆棧自編碼器就是一個(gè)無(wú)監(jiān)督預(yù)訓(xùn)練、有監(jiān)督微調(diào)進(jìn)行訓(xùn)練的神經(jīng)網(wǎng)絡(luò)模型。(A)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選)tf.keras.layers.GaussianNoise可用于加性高斯噪聲,其中以下哪個(gè)參數(shù)用于設(shè)置
噪聲分布的標(biāo)準(zhǔn)差。(A)
A.stddev
B.inputs
C.training
D.std
2.(多選)自編碼器有以下哪些特性。(ABD)
A.數(shù)據(jù)相關(guān)性
B.數(shù)據(jù)有損性
C.數(shù)據(jù)無(wú)損性
D.自動(dòng)學(xué)習(xí)性
三、實(shí)訓(xùn)題
1.構(gòu)建一個(gè)簡(jiǎn)單自編碼器,對(duì)FASHIONMNIST測(cè)試數(shù)據(jù)及進(jìn)行圖像重構(gòu)。自編碼器的網(wǎng)絡(luò)
有三層,其中輸入層有784個(gè)神經(jīng)元,陷藏層有128個(gè)神經(jīng)元,輸出層有784個(gè)神經(jīng)
元;在訓(xùn)練模型時(shí),訓(xùn)練周期為10次,最后利用訓(xùn)練好的簡(jiǎn)單自編碼器對(duì)測(cè)試數(shù)據(jù)集
進(jìn)行預(yù)測(cè),并繪制前15張的原始圖像(第一行)及重構(gòu)后的圖像(第二行),效果如下:
20020020020020020020020020200E200j2s00n200n20
0Ic20I0E20I0H20f0fiXl0s0Xn020n020
2.構(gòu)建一個(gè)卷積自編碼器,對(duì)FASHIONMNIST測(cè)試數(shù)據(jù)及進(jìn)行圖像重構(gòu)。卷積自編碼器網(wǎng)
絡(luò)結(jié)構(gòu)如下:
□卷積層具有32個(gè)特征圖,卷積核大小為3x3,激活函數(shù)為relu:
□pool_size為2X2的最大值池化層(MaxPool2D);
□卷積層具有32個(gè)特征圖,卷積核大小為3X3,激活函數(shù)為relu;
□pool_size為2x2的上采樣層(UpSampling2D):
□輸出層為具有1個(gè)特征圖,卷積核大小為3x3,激活函數(shù)為relu的卷積層。
訓(xùn)練模型時(shí),要求迭代次數(shù)為5,并利用訓(xùn)練好的卷積自編碼器對(duì)測(cè)試數(shù)據(jù)集進(jìn)行預(yù)測(cè),
并繪制前15張的原始圖像(第一行)及重構(gòu)后的圖像(笫二行),效果如下:
0O200Q200H200H200Ii20l0H200^200H200S20L020I。S200S200D200n20
Q020W0200H200nX)H020r0a200E200fXB02S00DX)0EX>0sX0n200n30
第七章
一、判斷題
1.生成式對(duì)抗網(wǎng)絡(luò)(GAN)由生成器和判別器兩個(gè)神經(jīng)網(wǎng)絡(luò)生成。(A)
A.正確
B.錯(cuò)誤
2.判別器用于從噪聲中生成假樣本數(shù)據(jù)。(B)
A.正確
B.錯(cuò)誤
3.GAN模型在訓(xùn)練過程中,需要將判別器設(shè)置為凍結(jié)。(A)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選題)在卷積神經(jīng)網(wǎng)絡(luò)中,進(jìn)行上采樣的目的是:(B)
A.得到更低分辨率的圖像
B,得到更高分別率的圖像
C.使得輸出尺寸比輸入尺寸變小
D.保持輸出尺寸與輸入尺寸一致
2.(單選題)在進(jìn)行反卷積計(jì)算時(shí),假設(shè)輸入尺寸為2x2,卷積核大?。╧ernel_size)為
3x3,步長(zhǎng)(strides)為1,邊界擴(kuò)充(padding的值)為“valid",那么反卷積的輸出
尺寸:(C)
A.2x2
B.3x3
C.4x4
D.5x5
三、實(shí)訓(xùn)題
本章實(shí)訓(xùn)題我們將使用FashonMNIST訓(xùn)練數(shù)據(jù)集,該訓(xùn)練數(shù)據(jù)集包含10個(gè)類別的
60,000個(gè)灰色圖像,這些圖像以低分辨率(28x28像素)展示了單件衣物,如下所示:
1.FashionMNIST數(shù)據(jù)集的類別標(biāo)簽為。9],其中數(shù)字1是Trouser(褲子)的灰色圖像,
請(qǐng)?zhí)崛∮?xùn)練數(shù)據(jù)集中所有標(biāo)簽為1的Trouser(褲子)的灰色圖像(共6000張),并可
視化展示前32張Trouser(褲子)的灰色圖像,如下所示。
IllDillIIIIII111HO
H111lilIII111111III11
liinMUIilFSIilLl
HliiMrilllJIilBI
2.讓我們使用tf.random_normal()函數(shù)創(chuàng)建一個(gè)形狀為(32,50)的服從均值為0、標(biāo)準(zhǔn)差為
1.0的正態(tài)分布的二維數(shù)組,并使用GAN生成Trouser(褲子)的灰色圖像。
其中,生成器的網(wǎng)絡(luò)架構(gòu)如下:
□Dense層,其中神經(jīng)元數(shù)量為100個(gè),激活函數(shù)為selu,輸入數(shù)據(jù)形狀大小為50:
□Dense層,其中神經(jīng)元數(shù)量為150個(gè),激活函數(shù)為selu;
□Dense層,其中神經(jīng)元數(shù)量為784個(gè),激活函數(shù)為sigmoid;
□Reshape層,通過keras.layers.Reshape形狀變?yōu)?28,28)。
其中,判別器的網(wǎng)絡(luò)結(jié)構(gòu)如下:
□Flatten層,通過keras.layers.Flatten進(jìn)行展平,輸入形狀為(28,28);
□Dense層,其中神經(jīng)元數(shù)量為150,激活函數(shù)為selu;
□Dense層,其中神經(jīng)元數(shù)量為100,激活函數(shù)為selu;
□Dense層,其中神經(jīng)元數(shù)量為1,激活函數(shù)為sigmoid。
在模型編譯時(shí),損失函數(shù)采用binary_crossentropy,優(yōu)化器采用rmsprop。在模型訓(xùn)練
時(shí),批次大小為32,迭代次數(shù)為30次。請(qǐng)分別給出第1次迭代和第30次迭代生成的圖像
截圖。截圖如下所示:
Epoch1/30Epoch30/30
HEIHBEIIilHIilNIIEINMEISH
倒Mill
3.讓我們使用1皿句麗」。17^1()函數(shù)創(chuàng)建一個(gè)形狀為(32,100)的服從均值為0、標(biāo)準(zhǔn)差為
1.0的正態(tài)分布的二維數(shù)組,并使用DCGAN生成Trouser(褲子)的灰色圖像。
其中,生成器的網(wǎng)絡(luò)架構(gòu)如下:
□Dense層,其中神經(jīng)元數(shù)量有1372(7x7x28)個(gè),輸入數(shù)據(jù)形狀大小為100;
□Reshape層,通過keras.layers.Reshape形狀變?yōu)?7,7,28);
□批標(biāo)準(zhǔn)化層;
□2D反卷積層,其中濾波器數(shù)量參數(shù)filters為64,卷積核大小參數(shù)kernel_size為
5,步長(zhǎng)參數(shù)strides為2,邊界擴(kuò)充參數(shù)padding為SAME,激活函數(shù)參數(shù)activation
為selu。
□批標(biāo)準(zhǔn)化層;
□輸出為三維的2D反卷積層,激活函數(shù)參數(shù)activation為tanho
其中,判別器網(wǎng)絡(luò)架構(gòu)如下:
□2D卷積層,其中卷積核個(gè)數(shù)參數(shù)filters為64,卷積核大小參數(shù)kernel_size為5,
步長(zhǎng)參數(shù)strides為2,邊界擴(kuò)充參數(shù)padding為SAME,激活函數(shù)參數(shù)activation
為relu;
□Dropout層;
□2D卷積層,其中卷積核個(gè)數(shù)參數(shù)filters為128,卷積核大小參數(shù)kernel_size為5,
步長(zhǎng)參數(shù)strides為2,邊界擴(kuò)充參數(shù)padding為SAME,激活函數(shù)參數(shù)activation
為relUo
□Dropout層;
□Flatten層;
□Dense層,神經(jīng)元數(shù)量為1,激活函數(shù)為sigmoid。
在模型編譯時(shí),損失函數(shù)采用binary_ciossentropy,優(yōu)化器采用rmsprop.,在模型訓(xùn)練
時(shí),批次大小為32,迭代次數(shù)為5次。請(qǐng)分別給出第1次迭代和第5次迭代生成的圖像截
圖。截圖如下所示:
Epoch1/5
Epoch5/5
lillJElMlilllNIilnniiiiiihiiiiiHii
MlilLIlillllfllJU111MilIIII11IILI
HIilULlUHHMHiiniiMMiaH
HMfflBIMIJIfllflHlilUHIHliiniil
第八章
一、判斷題
1.分類模型的誤差大致分為兩種:訓(xùn)練誤差(trainingerror)和泛化誤差(generalization
error)o(A)
A.正確
B.錯(cuò)誤
2.縮小訓(xùn)練誤差和測(cè)試誤差的差距目的是為了降低模型的泛化能力。(B)
A.正確
B.錯(cuò)誤
3.混淆矩陣是概率預(yù)測(cè)(分類模型)的常用評(píng)估手段之一,但其僅能用于二元分類模型。
(B)
A.正確
B.錯(cuò)誤
二、選擇題
1.(單選)Scikit-Learn中的metrics子模塊中用于計(jì)算均方誤差函數(shù)是以卜哪個(gè)。(C)
A.max_error
B.mean_absolute_error
C.mean_squared_error
D.median_absolute_error
2.(單選)Scikit-Learn中的metrics子模塊中以下哪個(gè)函數(shù)不是用于分類模型的評(píng)價(jià)指標(biāo)。
(D)
A.accuracy_score
B.classification_report
C.confusion_matrix
D.median_absolute_error
3.(多選)模型參數(shù)優(yōu)化常用手段有以下哪幾種。(BCD)
A.繪制ROC曲線
B.數(shù)據(jù)分區(qū)
C.K折交叉驗(yàn)證
D.網(wǎng)格搜索
4.(多選)ROC又稱接收者運(yùn)行特征曲線,由以下哪兩個(gè)指標(biāo)繪制的曲線。(AD
溫馨提示
- 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年大學(xué)民族食品加工技術(shù)(民族食品制作)試題及答案
- 2026年人力資源管理師(績(jī)效考核方法)試題及答案
- 2025年高職-大學(xué)(足球運(yùn)動(dòng))足球戰(zhàn)術(shù)分析模擬測(cè)試試題及答案
- 2025年中職護(hù)理(霧化吸入護(hù)理)試題及答案
- 2026年職業(yè)提升綜合測(cè)試(職業(yè)提升能力)試題及答案
- 2025年中職應(yīng)用化工技術(shù)(化工分離技術(shù))試題及答案
- 2025年高職中國(guó)藝術(shù)史(繪畫史脈絡(luò))試題及答案
- 2025年中職茶藝與茶營(yíng)銷(茶藝表演規(guī)范)試題及答案
- 2025年中職旅游服務(wù)與管理(旅游線路設(shè)計(jì))試題及答案
- 2025年高職化工(化工應(yīng)用能力)試題及答案
- 改善就醫(yī)感受,提升患者體驗(yàn)工作總結(jié)
- 山西版三年級(jí)上信息技術(shù)教案
- GB/T 17727-2024船用法蘭非金屬墊片
- TGDGX 0003-2024 高校物業(yè)服務(wù)費(fèi)用測(cè)算及基本人員配置規(guī)范
- JJF(機(jī)械) 1064-2021 運(yùn)動(dòng)場(chǎng)地材料沖擊吸收和垂直變形試驗(yàn)機(jī)校準(zhǔn)規(guī)范
- T CEC站用低壓交流電源系統(tǒng)剩余電流監(jiān)測(cè)裝置技術(shù)規(guī)范
- 個(gè)人工傷申請(qǐng)書
- 工程竣工移交單
- 起重機(jī)焊接結(jié)構(gòu)件制造工藝規(guī)程
- “振興杯”職業(yè)技能競(jìng)賽(維修電工)備賽試題庫(kù) (單選、多選題匯總)
- GB/T 25689-2010土方機(jī)械自卸車車廂容量標(biāo)定
評(píng)論
0/150
提交評(píng)論