【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案_第1頁
【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案_第2頁
【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案_第3頁
【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案_第4頁
【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案_第5頁
已閱讀5頁,還剩10頁未讀, 繼續(xù)免費閱讀

付費下載

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

【答案】《深度學習應用開發(fā)-TensorFlow實踐》(浙大城市學院)章節(jié)期末慕課答案有些題目順序不一致,下載后按鍵盤ctrl+F進行搜索第三講(根據基礎選修)工欲善其事必先利其器:簡明Python基礎測試1:Python基礎測試1.單選題:Python的單行注釋怎么表示?

選項:

A、#注釋

B、//注釋

C、%注釋

D、/*注釋*/

答案:【#注釋】2.單選題:以下選項哪個可以作為Python3的標識符?

選項:

A、變量

B、def

C、elif

D、while

答案:【變量】3.單選題:下面關于Python的變量的說法哪個是錯誤的?

選項:

A、每個變量都在內存中創(chuàng)建,包括變量的標識、名稱和數據這些信息

B、每個變量在使用前不一定要賦值

C、Python中的變量賦值需要數據類型聲明

D、Python的數據類型根據具體的賦值確定

答案:【Python中的變量賦值需要數據類型聲明】4.單選題:以下關于Python的說法哪個是錯誤的?

選項:

A、Python的標識符不能以數字開頭

B、Python2和Python3有一定的區(qū)別

C、Python是一門面向過程的語言

D、Python由荷蘭人GuidovanRossum于1989年發(fā)明

答案:【Python是一門面向過程的語言】5.單選題:在Python中,標識符不能包括以下哪個選項?

選項:

A、英文字母

B、阿拉伯數字

C、下劃線

D、減號

答案:【減號】6.單選題:定義變量a是元組的語句是?

選項:

A、a=(2,3,4)

B、a={2,3,4}

C、a=[2,3,4]

D、a={"1":1,"2":2,"3":3}

答案:【a=(2,3,4)】7.單選題:以下關于Python中字典的描述錯誤的是?

選項:

A、字典是一個有序的鍵值對集合

B、鍵(Key)必須使用不可變的類型

C、字典中的元素通過鍵(Key)來存取

D、同一個字典中,鍵(Key)是唯一的

答案:【字典是一個有序的鍵值對集合】8.單選題:Python運算:10or20+5的輸出是?

選項:

A、25

B、10

C、True

D、False

答案:【10】9.單選題:Python運算:0and20+5的輸出是?

選項:

A、0

B、25

C、False

D、True

答案:【0】10.單選題:以下代碼哪個不能夠打印出Helloworld!?

選項:

A、print("Helloworld!")

B、print("Hello","world!")

C、print("Hello")print("world!")

D、print("Hello",end='')print("world!")

答案:【print("Hello")print("world!")】第四講磨刀不誤砍柴工:TensorFlow編程基礎測試2:Tensorflow編程基礎單元測試1.importtensorflowastften=tf.constant([[[1,2],[2,3]],[[3,4],[5.6]]])sess=tf.Session()print(sess.run(ten)[1,0,0])sess.close()運行結果是()?

答案:【2351】2.[[[6],[3]],[[2]],[[5]]]是一個幾維張量?

答案:【0123】3.下面說法錯誤的是()?

答案:【在TensorFlow1.x的靜態(tài)圖運行模式中計算圖在創(chuàng)建的時候就得到執(zhí)行在TensorFlow1.x的靜態(tài)圖運行模式中張量沒有真正保存數字在TensorFlow1.x的靜態(tài)圖運行模式中張量可以保存計算過程張量在功能上可以理解為多維數組】4.下面說法正確的是()?

答案:【常量可以不需要初始化所有變量都需要人工賦值feed_dict一次只能給一個變量賦值fetch可以一次返回多個值分別賦給多個變量】5.下面說法錯誤的是()?

答案:【會話擁有并管理Tensorflow程序運行時的所有資源利用python的上下文管理器,可以不需要手動關閉會話tf.InteractiveSession會自動將生成的會話注冊為默認會話不同計算圖共享張量和運算】6.tensorflow中用于人工更新變量取值的命令是()?

答案:【constantVariableassignget_variable】7.feed_dict參數用于傳遞()定義的變量

答案:【constantVariableassignplaceholder】8.improttensorflowastfa=tf.constant(1,name='a')b=tf.constant(2.0,name='b')result=a+b運行結果是?

答案:【33.0a+b運行報錯】9.node1=tf.constant(3,name=”node1”)的默認類型是?

答案:【1632tf.float32tf.double64】10.node1=tf.constant(3.0,name=”node1”)的默認類型是?

答案:【32tf.float32tf.double64】11.下列不是tensorflow支持的類型是?

答案:【plex64tf.unit16】12.importtensorflowastfvector=tf.constant([[[1],[3]],[[5],[6]],[[7],[9]]])print(vector.get_shape())結果是?

答案:【(3,2,1)(3)(3,2)3】13.在TensorFlow1.x的靜態(tài)圖運行模式中importtensorflowastfnode1=tf.constant(3.0,tf.float32,name=”node1”)node2=tf.constant(4.0,tf.float32,name=”node2”)node3=tf.add(node1,node2)print(node3)運行結果是什么?

答案:【077.0Tensor(“Add:0,shape(),dtype=float32)】14.在計算圖中,每個節(jié)點代表什么?

答案:【數據傳遞控制依賴張量操作】15.下面哪一項不是張量的屬性?

答案:【名字維度取值類型】16.上面哪個語句不能創(chuàng)建一個3x3x4形狀的TensorFlow張量?

答案:【a=tf.get_variable(“get_varaible”,[3,3,4],initializer=tf.constant_initializer([3,3,4,5]))b=tf.Variable([3,3,4])c=tf.zeros([3,3,4])d=tf.truncated_normal([3,3,4])】17.tensorflow中通過()可定義一個可修改變量

答案:【constantVariableassignplaceholder】18.TensorBoard的默認端口是()?

答案:【6006660080808000】19.Tensorflow的占位符是()?

答案:【constantVariableassignplaceholder】20.在TensorFlow1.x的靜態(tài)圖運行模式中importtensorflowastfnode1=tf.Variable(3.0,float32,name="node1")node2=tf.Variable(4.0,float32,name="node2")node3=tf.add(node1,node2)sess=tf.session()withsess.as_default():print(node3.eval())運行結果是什么?

答案:【077.0運行錯誤】第五講單變量線性回歸:TesnsorFlow實戰(zhàn)作業(yè)2:通過生成人工數據集合,基于TensorFlow實現y=3.1234*x+2.98線性回歸1.通過生成人工數據集合,基于TensorFlow實現y=3.1234*x+2.98線性回歸通過上傳附件方式提交notebook文件(.ipynb)評分標準:1、生成x_data,值為[0,100]之間500個等差數列數據集合作為樣本特征根據目標線性方程y=3.1234*x+2.98,生成相應的標簽集合y_data,2分;2、畫出隨機生成數據的散點圖和想要通過學習得到的目標線性函數y=3.1234*x+2.98,2分;3、構建回歸模型,3分;4、訓練模型,10輪(可根據需要設置為更多輪),每訓練20個樣本顯示損失值,2分;5、通過訓練出的模型預測x=5.79時y的值,并顯示根據目標方程顯示的y值,1分;備注:如果不是上傳notebook文件(.ipynb),可以用以下方案替代:1、源代碼.py文件2、寫一個說明文檔,貼上散點圖和計算圖的圖形,格式可以是word或者pdf3、以上兩個文件通過壓縮文件打包為一個zip或者rar文件強烈建議提交notebook文件(.ipynb)(打包為壓縮文件后上傳)

答案:【生成x_data,值為[0,100]之間500個等差數列數據集合作為樣本特征根據目標線性方程y=3.1234*x+2.98,生成相應的標簽集合y_data畫出隨機生成數據的散點圖和想要通過學習得到的目標線性函數y=3.1234*x+2.98構建回歸模型訓練模型,10輪(可根據需要設置為更多輪),每訓練20個樣本顯示損失值通過訓練出的模型預測x=5.79時y的值,并顯示根據目標方程顯示的y值】第六講多元線性回歸:波士頓房價預測問題TesnsorFlow實戰(zhàn)作業(yè)3:波士頓房價預測線性回歸實踐1.作業(yè)題1按課程案例,動手完成編碼實踐。通過梯度下降優(yōu)化器進行優(yōu)化,嘗試采用不同的學習率和訓練輪數等超參數,記錄訓練后的損失值和W、b變量值。提交要求:1、至少5次不同超參數的運行結果的記錄文檔(word格式或者txt格式)2、你認為最優(yōu)的一次帶運行結果的源代碼文件(.ipynb格式)3、以上兩個文件一起壓縮為一個壓縮文件后作為附件上傳評價標準:1、完成案例中的代碼,有完整的代碼,模型能運行優(yōu)化出結果,8分;2、調整過超參數,記錄文件中有至少5組數據,2分;

答案:【完成案例中的代碼,有完整的代碼,模型能運行優(yōu)化出結果調整過超參數,記錄文件中有至少5組數據】第七講MNIST手寫數字識別:分類應用入門作業(yè)4:FashionMNIST圖像識別問題的神經元模型實踐1.Fashion-MNIST手寫數字識別問題的單神經元模型實踐Fashion-MNIST是德國研究機構ZalandoResearch在2017年8月份開源的一個數據集,它包含了如圖13.7所示的人們日常穿著的衣服、鞋子、包等十類生活用品,其中訓練集包含60000張訓練集和10000張測試集,每張圖片和MNIST數據集一樣,均是28*28像素的灰度圖,包括10個種類的生活用品(T-shirt/top,Trouser,Pullover,Dress,Coat,Sandal,Shirt,Sneaker,Bag,Ankleboot)。Fashion-MNIST是一個開源的數據集,該機構在/zalandoresearch/fashion-mnist進行了開源,需要的研究人員可以到該Github上進行下載。為了便于學習者學習,TensorFlow在datasets里面集成了Fashion-MNIST數據集。#導入fashionmnist數據集的語句fashion_mnist=tf.keras.datasets.fashion_mnist(train_images,train_labels),(test_images,test_labels)=fashion_mnist.load_data()模仿課程案例,動手完成編碼實踐。在不改變模型的結構基礎上,嘗試采用不同的學習率、單批次樣本數、訓練輪數等超參數,讓模型的準確率達到83.5%。提交要求:1、你認為最優(yōu)的一次帶運行結果的源代碼文件(.ipynb格式)2、文件先壓縮為rar或者zip文件,作為附件上傳評分標準:1、完成案例代碼,有完整的代碼,模型能運行,準確率達82%以上;得6分,否則得0分;2、準確率達83.5%以上;再得2分,否則得0分;3、畫出訓練過程的loss曲線和accuracy曲線;再得2分,否則得0分;

答案:【完成案例代碼,有完整的代碼,模型能運行,準確率達82%以上;得6分,否則得0分;準確率達83.5%以上;再得2分,否則得0分;畫出訓練過程的loss曲線和accuracy曲線;再得2分,否則得0分;】第十講圖像識別問題:卷積神經網絡與應用作業(yè)6:CIFAR10案例卷積神經網絡實踐1.CIFAR10圖像識別問題的卷積神經網絡實踐按課程案例,動手完成編編碼實踐??蓢L試采用不同的學習率、單批次樣本數、訓練輪數等超參數,或是改變模型結構(例如:增加卷積層、池化層或全連接層的數量)讓模型的準確率達到70%。提交要求:1、你認為最優(yōu)的一次帶運行結果的源代碼文件(.ipynb格式)2、作為附件上傳評分標準:1、完成CIFAR10圖像識別問題的卷積神經網絡的建模與應用(必須采用卷積神經網絡),有完整的代碼,模型能運行,準確率達60%以上;得6分;每下降一個百分點,少得1分;2、準確率達65%以上;再得2分,否則再得0分;3、準確率到70%以上;再得2分,否則再得0分;4、之所以只提70%的準確率作為滿分的標準,不是說只能達到這個識別率,而是考慮同學們設備的算力和時間,有GPU的會很快,如果只是CPU的還是需要一些時間的。

答案:【完成CIFAR10圖像識別問題的卷積神經網絡的建模與應用(必須采用卷積神經網絡),有完整的代碼,模型能運行,準確率達60%以上;得6分;每下降一個百分點,少得1分;2、準確率達65%以上;再得2分,否則再得0分;3、準確率到70%以上;再得2分,否則再得0分;】(終章提前發(fā)布)課程大作業(yè)課程大作業(yè)1.課程大作業(yè),自由選題,詳細說明見本章視頻根據以下5方面評價:問題場景與創(chuàng)意、所選模型類型的適用性、模型性能、功能實現完備性、整體技術復雜度,各占20%。

答案:【問題場景與創(chuàng)意所選模型類型的適用性模型性能功能實現完備性整體技術復雜度】期末考試期末考試卷1.單選題:下列哪個不是LSTM循環(huán)單元中的門_____

選項:

A、激活門

B、輸入門

C、輸出門

D、遺忘門

答案:【激活門】2.單選題:下列關于循環(huán)神經網絡的說法哪個是錯誤的___

選項:

A、普通RNN容易出現梯度消失問題

B、普通RNN容易出現梯度爆炸問題

C、LSTM網絡結構相對普通RNN網絡解決了梯度爆炸問題,但沒有很好解決梯度消失問題

D、循環(huán)神經網絡RNN和LSTM等模型,則因為其模型結構特點可以更好地應用于時序相關的問題場景

答案:【LSTM網絡結構相對普通RNN網絡解決了梯度爆炸問題,但沒有很好解決梯度消失問題】3.單選題:下列有關詞嵌入的說法哪個是錯誤的____

選項:

A、將詞匯嵌入到低維的連續(xù)向量空間中,即詞被表示為實數域上的向量

B、能捕捉到詞匯間的聯系,比如,通過計算兩個詞嵌入的余弦值得到兩個詞匯的相關程度

C、運算速度快

D、一個詞嵌入是一個稠密浮點數向量,需要事先通過手工編碼來實現

答案:【一個詞嵌入是一個稠密浮點數向量,需要事先通過手工編碼來實現】4.單選題:下列哪項不屬于圖像數據增強的常見方法:

選項:

A、翻轉變換

B、隨機裁剪

C、把測試集加入到訓練集

D、對比度變換

答案:【把測試集加入到訓練集】5.單選題:預防過擬合的措施不包含下列哪項?

選項:

A、早停

B、數據增強

C、增大學習率

D、加上dropout層

答案:【增大學習率】6.單選題:下列說法錯誤的是:

選項:

A、檢查點文件的擴展名一般為.ckpt

B、圖協(xié)議文件的擴展名一般為.pb

C、檢查點文件是通過在tf.train.Saver對象上調用Saver.save()生成的

D、saver.restore()只能恢復最新模型,不能恢復指定模型

答案:【saver.restore()只能恢復最新模型,不能恢復指定模型】7.單選題:importtensorflowastfa=tf.constant([[1,2],[3,4]])b=tf.constant([[1,1],[2,2]])sess=tf.Session()print(sess.run(tf.matmul(a,b)))sess.close()的運行結果是()

選項:

A、[[1,2],[6,8]

B、[[5,5],[11,11]]

C、17

D、[[1,4],[3,8]]

答案:【[[5,5],[11,11]]】8.單選題:在TensorFlow1.x環(huán)境中importtensorflowastfa=tf.constant([[1,2],[3,4]])b=tf.constant([[1,1],[2,2]])sess=tf.Session()print(sess.run(a*b))sess.close()的運行結果是()

選項:

A、[[1,2],[6,8]]

B、[[5,5],[11,11]]

C、17

D、[[1,4],[3,8]]

答案:【[[1,2],[6,8]]】9.單選題:假設x的值為[[1,3,5],[2,4,6]],tf.transpose(x)的結果是()

選項:

A、[[1,3,5],[2,4,6]]

B、[[2,4,6],[1,3,5]]

C、[[1,2],[3,4],[5,6]]

D、[[[1,2,3],[4,5,6]]]

答案:【[[1,2],[3,4],[5,6]]】10.單選題:Tensorflow通過()實現矩陣叉乘

選項:

A、tf.concat

B、tf.matmul

C、*

D、tf.mutiply

答案:【tf.matmul】11.單選題:下列哪一項不是tensorflow提供的優(yōu)化器()

選項:

A、GradientDescentOptimizer

B、MarkovOptimizer

C、AdamOptimizer

D、AdadeltaOptimizer

答案:【MarkovOptimizer】12.單選題:關于pandas的說法錯誤的是()

選項:

A、pandas能夠讀取CSV、文本文件、SQL

B、處理CSV文件能夠自動識別列頭,支持列的直接尋址

C、能夠將數據結構自動轉換為numpy的多維數組

D、pandas最適合進行圖片的預處理

答案:【pandas最適合進行圖片的預處理】13.單選題:關于批量說法正確的是()

選項:

A、批量大小只能是1

B、批量越大越好

C、批量越大,單次迭代所需的時間越長

D、批量是指樣本總數

答案:【批量越大,單次迭代所需的時間越長】14.單選題:下面哪個不是單變量線性回歸的必須步驟()

選項:

A、構建線性模型

B、定義損失函數

C、定義優(yōu)化器

D、可視化訓練過程

答案:【可視化訓練過程】15.單選題:關于tf.variable_scope(),以下說法正確的是:

選項:

A、用于給variable_name和op_name加前綴

B、用于創(chuàng)建新變量

C、返回一個張量

D、與_scope()沒有區(qū)別

答案:【用于給variable_name和op_name加前綴】16.單選題:什么時候不適合使用遷移學習()

選項:

A、當新數據集比較小時

B、當新數據集與原數據集相似時

C、當原先的模型不容易泛化時

D、當算力有限時

答案:【當原先的模型不容易泛化時】17.單選題:下面哪項不是遷移學習的優(yōu)點()

選項:

A、訓練時間少

B、適應多任務目標的學習

C、可以用來緩解缺乏巨量標注數據的問題

D、總是能夠得到性能更高,準確率更好的模型

答案:【總是能夠得到性能更高,準確率更好的模型】18.單選題:下列關于遷移學習的說法正確的是()

選項:

A、遷移學習不需要和原來的任務有很大的聯系

B、遷移學習主要是為了緩解標注數據不足和訓練時間長的問題

C、通過遷移學習一定可以實現更高的準確率

D、遷移學習的新數據集和原數據集不需要相似

答案:【遷移學習主要是為了緩解標注數據不足和訓練時間長的問題】19.單選題:遷移學習與完整訓練模型相比()

選項:

A、正確率更高

B、需要的訓練樣本更多

C、需要的訓練時間更少

D、模型更加簡單

答案:【需要的訓練時間更少】20.單選題:打亂訓練數據的目的是()

選項:

A、加快學習速度

B、使模型學習到有效的特征

C、打亂訓練數據對訓練結果沒有影響

D、豐富樣本數據

答案:【使模型學習到有效的特征】21.單選題:關于樣本數據的說法不正確的是()

選項:

A、全部的樣本數據都應該參與訓練

B、樣本數據最好分為測試集和訓練集

C、樣本數據訓練時最好打亂順序

D、特征數據需要歸一化

答案:【全部的樣本數據都應該參與訓練】22.單選題:未歸一化前多元線性回歸訓練結果異常的主要原因是()

選項:

A、變量參數太多

B、隨機因素引起的異常

C、模型定義錯誤

D、不同特征值取值范圍對訓練的影響

答案:【不同特征值取值范圍對訓練的影響】23.單選題:樣本數據如下x12345y21465假設學習到的模型為y=x+1,則L1損失為()

選項:

A、2

B、4

C、16

D、3

答案:【4】24.單選題:從標簽化訓練數據集中推斷出函數的機器學習任務是()

選項:

A、有監(jiān)督學習

B、無監(jiān)督學習

C、強化學習

D、半監(jiān)督學習

答案:【有監(jiān)督學習】25.單選題:關于TensorBoard以下說法錯誤的是:

選項:

A、TensorBoard是TensorFlow的可視化工具

B、通過TensorFlow程序運行過程中輸出的日志文件可視化TensorFlow程序的運行狀態(tài)

C、TensorBoard和TensorFlow程序跑在不同的進程中

D、TensorBoard只能啟動在6006端口

答案:【TensorBoard只能啟動在6006端口】26.單選題:關于占位符(placeholder)下面說法錯誤的是?

選項:

A、占位符在定義的時候無需初始化

B、一般訓練數據通過占位符進行輸入

C、占位符是TensorFlow中特有的一種數據結構,類似動態(tài)變量

D、占位符占用的變量需要通過feed_dict參數傳遞進去

答案:【占位符在定義的時候無需初始化】27.單選題:下面關于TensorFlow1.x中常量與變量描述正確的是?

選項:

A、變量指在運行過程中會被改變的值,在TensorFlow中無需進行初始化操作。

B、變量的一般創(chuàng)建語句:name_variable=tf.variable(value,name)

C、常量在TensorFlow中一般被用于設置訓練步數、訓練步長和訓練輪數等超參數。

D、TensorFlow中的變量定義后,一般都需要人工賦值

答案:【常量在TensorFlow中一般被用于設置訓練步數、訓練步長和訓練輪數等超參數?!?8.單選題:下面關于TensorFlow中的會話(Session)的描述哪個是錯誤的?

選項:

A、會話擁有并管理TensorFlow程序運行時的所有資源

B、計算結束后不需要關閉會話資源便可回收

C、TensorFlow不會自動生成默認的會話,需要手動指定

D、Session負責數據流圖中操作的執(zhí)行

答案:【計算結束后不需要關閉會話資源便可回收】29.單選題:下面關于TensorFlow中的張量(Tensor)的描述哪個是錯誤的?

選項:

A、在TensorFlow中,所有的數據都通過張量的形式來表示

B、張量并沒有真正保存數字,而是保存了計算過程

C、TensorFlow會對參與運算的所有張量進行類型的檢查,發(fā)現類型不匹配時會報錯

D、帶小數點的數會被默認為int16類型

答案:【帶小數點的數會被默認為int16類型】30.單選題:關于TensorFlow1.x的數據流圖(Flow)下面哪一句描述是錯誤的?

選項:

A、數據流圖的每個節(jié)點代表一個操作和運算

B、數據流圖輸出的結果是一個具體的數字

C、數據流圖的每條有向邊代表節(jié)點之間的數

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論