版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
試卷科目:人工智能深度學(xué)習(xí)技術(shù)練習(xí)人工智能深度學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷6)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能深度學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共132題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.語(yǔ)句b=tf.ones_like(a)是A)將b節(jié)點(diǎn)內(nèi)容用a替換B)b對(duì)應(yīng)張量維度和A相同,值為1C)b對(duì)應(yīng)張量維度和A相同,值為2D)b對(duì)應(yīng)張量維度和不同答案:B解析:[單選題]2.A=2133?21,B=12?2?1?30,求AB()。A)87?6?30?35?7?9B)8?7?6?30?35?7?9C)8?7?6?30?357?9D)8?7?6?3035?7?9答案:B解析:難易程度:易題型:[單選題]3.A=2133?21,B=12?2?1?30,求BA()。A)9438B)?9437C)?9438D)9?4?38答案:C解析:難易程度:易題型:[單選題]4.ActivationfunctionRectifiedLinearUnit即激活函數(shù)ReLU,它的作用是()A)引用了無(wú)效的單元格地址B)過(guò)濾無(wú)效神經(jīng)元C)不是激發(fā)函數(shù)D)將正數(shù)保留,將負(fù)數(shù)置0答案:D解析:[單選題]5.在AlexNet等典型的卷積神經(jīng)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)的深度增加,通常有()A)每層的通道的高度和寬度減少,通道數(shù)增加。B)每層的通道的高度和寬度增加,通道數(shù)增加。C)每層的通道的高度和寬度減少,通道數(shù)減少。D)每層的通道的高度和寬度增加,通道數(shù)減少。答案:A解析:[單選題]6.卷積中控制卷積核的參數(shù)是A)strideB)kerner_sizeC)in_channelsD)out_channels答案:B解析:[單選題]7.pytorch中數(shù)值一般是()類(lèi)型A)intB)floatC)boolD)time答案:B解析:[單選題]8.從()、比較比對(duì)、逐漸逼近的循環(huán)過(guò)程就是建立數(shù)學(xué)模型A)測(cè)量B)校準(zhǔn)C)回歸D)監(jiān)督答案:A解析:[單選題]9.JSON數(shù)據(jù)格式說(shuō)法不正確的是()。A)一種輕量級(jí)的數(shù)據(jù)交換格式B)全稱(chēng)是JavaC)json.dumpsD)提高可讀性答案:B解析:難易程度:易題型:[單選題]10.LSTM網(wǎng)絡(luò)通過(guò)精妙的()將短期記憶與長(zhǎng)期記憶結(jié)合起來(lái),并且一定程度上解決了梯度消失的問(wèn)題A)RNN控制B)前饋控制C)BP控制D)門(mén)控制答案:D解析:[單選題]11.在概率空間中,樣本點(diǎn)的概率必須是:A)相等B)可以不等C)可以為0D)可以為1答案:A解析:[單選題]12.針對(duì)交叉熵,描述正確的是:A)二分類(lèi)和多分類(lèi)的損失函數(shù)相同B)交叉熵可以理解為信息量的累計(jì)值C)交叉熵只需要標(biāo)簽就可以進(jìn)行計(jì)算D)交叉熵是回歸的代價(jià)函數(shù)答案:B解析:[單選題]13.防止過(guò)擬合的方法可以使用正則化,正則化方法中不包括下面哪個(gè)方法()A)混合L1與L2正則化B)L1正則化C)L3正則化D)L2正則化答案:C解析:[單選題]14.什么是TensorFlow的核心的基本數(shù)據(jù)單元?A)張量B)向量C)純量D)以上都不是答案:A解析:[單選題]15.訓(xùn)練模型最靈活的方式是:A)內(nèi)置fitB)內(nèi)置train_on_batchC)自定義訓(xùn)練循環(huán)D)內(nèi)置compile答案:C解析:[單選題]16.對(duì)于以下線性運(yùn)算的結(jié)果向量,如果要映射成概率結(jié)果,需要函數(shù):A)tf.nn.softmaxB)tf.nn.dropoutC)tf.nn.maxpoolD)tf.nn.cov2d答案:A解析:[單選題]17.以下有關(guān)神經(jīng)網(wǎng)絡(luò)的描述,錯(cuò)誤的是()A)model=SequentialOmodel.add(layers.InputLayer(input_shape=(1)))model.add(layers.Dense(5activation=sigmoid))model.add(layers.Dense(1.activation=sigmoid))上述代碼創(chuàng)建的神經(jīng)網(wǎng)絡(luò)的可訓(xùn)練的參數(shù)有16個(gè)。B)當(dāng)輸入是負(fù)數(shù)時(shí)ReLU激活函數(shù)的值可以不為0。C)Sigmoid激活函數(shù)把負(fù)無(wú)窮到正無(wú)窮的輸入規(guī)范化為0到1的輸出。D)Softmax激活函數(shù)將元素為負(fù)無(wú)窮到正無(wú)窮的輸入向量。轉(zhuǎn)化為每個(gè)元素都在0到1的輸出向量。并且各分量的和為1。答案:B解析:[單選題]18.不是Python對(duì)文件的打開(kāi)模式的是()。A)?r?B)?+?C)?w?D)?c?答案:D解析:難易程度:易題型:[單選題]19.函數(shù)tanh值域范圍是()A)+1和-1B)+0和-1C)+1和0D)+2和-2答案:A解析:[單選題]20.關(guān)于降維,下列說(shuō)法錯(cuò)誤的是()。A)降維后的數(shù)據(jù)集的維度將降維前少B)有效降維能減少冗余信息,提高模型精度和運(yùn)行效率C)特征選擇不會(huì)改變數(shù)據(jù),僅從原有變量中找出主要變量D)特征提取從原有數(shù)據(jù)中提取主要成分,不會(huì)改變?cè)袛?shù)據(jù)答案:D解析:難易程度:中題型:[單選題]21.在選擇神經(jīng)網(wǎng)絡(luò)的深度時(shí),下面哪些參數(shù)需要考慮?1神經(jīng)網(wǎng)絡(luò)的類(lèi)型(如MLP,CNN)2輸入數(shù)據(jù)3計(jì)算能力(硬件和軟件能力決定)4學(xué)習(xí)速率5映射的輸出函數(shù)A)1,2,4,5B)2,3,4,5C)都需要考慮D)1,3,4,5答案:C解析:[單選題]22.在keras中的fit函數(shù)參數(shù)validation_data:形式為(X,y)的tuple,是指定的驗(yàn)證集。此參數(shù)將覆蓋()。A)sample_weightB)verboseC)class_weightD)validation_spilt答案:D解析:validation_data:形式為(X,y)的tuple,是指定的驗(yàn)證集。此參數(shù)將覆蓋validation_spilt。[單選題]23.創(chuàng)建指定數(shù)量等差數(shù)組的命令是()。A)np.linspace()B)np.arrange()C)np.logspace()D)np.array()答案:A解析:難易程度:易題型:[單選題]24.假設(shè)有28個(gè)卷積核,那么卷積后提取的特征數(shù)量是()A)784B)567C)28D)14答案:C解析:[單選題]25.Tf的全局變量初始化語(yǔ)句是A)tf.global_variables_initializer()B)tf.variables_initializerC)sess.run(w.initializer)D)tf.initializer()答案:A解析:[單選題]26.獨(dú)熱編碼即One-Hot編碼,又稱(chēng)()。A)對(duì)數(shù)有效編碼B)一位有效編碼C)兩位有效編碼D)零位有效編碼答案:B解析:獨(dú)熱編碼即One-Hot編碼,又稱(chēng)一位有效編碼。[單選題]27.keras中Dropout函數(shù)包含在哪個(gè)庫(kù)中?A)layerB)layersC)DenseD)model答案:B解析:keras.layers.Dropout(rate,noise_shape=None,seed=None)[單選題]28.在進(jìn)入科學(xué)研究之前,第一步要對(duì)事物A)實(shí)驗(yàn)準(zhǔn)備B)下定義C)思想準(zhǔn)備D)預(yù)測(cè)答案:B解析:[單選題]29.不屬于二元狀態(tài)感知模型有()。A)與非門(mén)B)異或門(mén)C)與門(mén)D)邏輯門(mén)答案:D解析:難易程度:易題型:[單選題]30.Sigmoid函數(shù)的特點(diǎn)是()。A)急劇變化B)x=0時(shí)等于0.5C)最大值等于1D)不能用在神經(jīng)網(wǎng)絡(luò)中答案:B解析:難易程度:易題型:[單選題]31.Batch歸一化步驟不包括A)求每個(gè)訓(xùn)練批次數(shù)據(jù)的均值B)求每個(gè)訓(xùn)練批次數(shù)據(jù)的方差C)使用求得的均值和方差對(duì)該批次的訓(xùn)練數(shù)據(jù)做歸一化,獲得0-1分布D)求每個(gè)訓(xùn)練批次的和答案:D解析:[單選題]32.假設(shè)你需要調(diào)整超參數(shù)來(lái)最小化代價(jià)函數(shù)(costfunction),會(huì)使用下列哪項(xiàng)技術(shù)?A)舉搜索B)隨機(jī)搜索C)Bayesian優(yōu)化D)都可以答案:D解析:[單選題]33.pytorch中,LSTM是否處理截距的參數(shù)為A)input_sizeB)batch_firstC)biasD)hidden_size答案:C解析:[單選題]34.Tf讀文件語(yǔ)句:key,value=reader.read(tf.train.string_input_producer(['cat.jpg']))語(yǔ)句中,key是A)key是關(guān)鍵詞,value是Key的值B)key是文件打開(kāi)符,value是整個(gè)文件數(shù)據(jù)讀入。C)key是文件內(nèi)部索引,value是key索引對(duì)應(yīng)數(shù)據(jù);D)key是文件打開(kāi)符,value是Key的值答案:B解析:[單選題]35.使用飛槳神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)模型中數(shù)據(jù)處理的第三個(gè)步驟()。A)數(shù)據(jù)導(dǎo)入B)數(shù)據(jù)集劃分C)數(shù)據(jù)歸一化處理D)數(shù)據(jù)形狀變換答案:B解析:難易程度:易題型:[單選題]36.池化核ksize=[1,4,4,1]將圖像A)縮小到1/2B)縮小到1/16C)擴(kuò)大兩倍D)擴(kuò)大四倍答案:B解析:[單選題]37.pytorch梯度下降用不到的函數(shù)是A)stepB)backwardC)zero_gradD)fit答案:D解析:[單選題]38.RMSprop相比Momentum,可以選擇更大的()A)損失函數(shù)B)學(xué)習(xí)率C)激活函數(shù)D)樣本集答案:B解析:[單選題]39.梯度爆炸問(wèn)題是指在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的時(shí)候,梯度變得過(guò)大而損失函數(shù)變?yōu)闊o(wú)窮。在RNN中,下面哪種方法可以較好地處理梯度爆炸問(wèn)題?()A)用改良的網(wǎng)絡(luò)結(jié)構(gòu)比如LSTM和GRUsB)梯度裁剪C)DropoutD)所有方法都不行答案:B解析:[單選題]40.卷積神經(jīng)網(wǎng)絡(luò)中,全連接層中,需要修改權(quán)重,修改的依據(jù)是:A)梯度反向傳播B)梯度正向傳播C)與梯度無(wú)關(guān)D)與損失函數(shù)無(wú)關(guān)答案:A解析:[單選題]41.二分類(lèi)和多分類(lèi)直接說(shuō)法正確的是A)使用相同的激活函數(shù)B)使用相同的代價(jià)函數(shù)公式C)二分類(lèi)使用softmax激活,多分類(lèi)使用sigmoid激活D)得到的結(jié)果都是概率形式答案:D解析:[單選題]42.常用的激活函數(shù)RELU,其常用調(diào)用語(yǔ)句為那一個(gè)()A)h_conv1=tf.nn.relu(conv_ret1)B)h_conv1=tf.nn.dropout(conv_ret1)C)h_conv1=tf.nn.lrn(conv_ret1)D)h_conv1=tf.nn.l2_loss(conv_ret1)答案:A解析:[單選題]43.多分類(lèi)模型,一般使用()函數(shù)A)reluB)tanhC)sigmoidD)softmax答案:D解析:[單選題]44.可以比較兩個(gè)單詞是否有關(guān)聯(lián),可以使用A)rnnB)lstmC)向量?jī)?nèi)積D)embedding答案:C解析:[單選題]45.訓(xùn)練神經(jīng)網(wǎng)絡(luò)可以修改的參數(shù)有()。A)學(xué)習(xí)速率B)梯度下降參數(shù)C)回歸參數(shù)D)RELU答案:A解析:難易程度:易題型:[單選題]46.Youarebuildingabinaryelassifierforrecognizingcucumbers(y=1)vs.watermelons(y=0).Whichoneoftheseactivationfunctionswouldyourecommendusingfortheoutoutlaver?A)ReLUB)LeakyReLuC)sigmoidD)tanh答案:C解析:[單選題]47.pytorch中隨機(jī)失活使用的是A)nn.LinearB)nn.FlattenC)nn.DropoutD)nn.BatchNorm2d答案:C解析:[單選題]48.pytorch構(gòu)建模型最復(fù)雜靈活的方式為:A)繼承nn.Module基類(lèi)構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類(lèi)構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理答案:C解析:[單選題]49.Tf.subtract函數(shù)返回一個(gè)(),與x具有相同的類(lèi)型A)TensorB)數(shù)組C)矢量D)范數(shù)答案:A解析:[單選題]50.如需要定義tf的常量X=tf.constant(2.0,shape=[1,2])語(yǔ)句結(jié)果是A)2B)[2.0,2.0]C)[[2.0,2.0]]D)[[2.0],[2.0]]答案:C解析:[單選題]51.下列哪一項(xiàng)屬于特征學(xué)習(xí)算法(representationlearningalgorithm)?CA)K近鄰算法B)隨機(jī)森林C)神經(jīng)網(wǎng)絡(luò)D)都不屬于答案:C解析:[單選題]52.keras.layers.Dropout(rate,noise_shape=None,seed=None)中rate的取值區(qū)間在()A)[-1,1]B)[1,2]C)[0,100]D)[0,1]答案:D解析:[單選題]53.一個(gè)數(shù)據(jù)集中,沒(méi)有哪一種類(lèi)型的數(shù)據(jù)集:A)測(cè)試集B)確認(rèn)集C)驗(yàn)證集D)訓(xùn)練集答案:B解析:[單選題]54.keras.layers.MaxPooling2D()方法中,pool_size參數(shù)的默認(rèn)值是()A)0B)1C)2D)無(wú)默認(rèn)值答案:C解析:[單選題]55.池化效果層沒(méi)有的屬性是A)步長(zhǎng)B)權(quán)重參數(shù)C)0填充D)池化核答案:B解析:[單選題]56.理論上激活效果最好的函數(shù)是:A)reluB)leaky-reluC)sigmoidD)tanh答案:B解析:[單選題]57.關(guān)于iloc的說(shuō)法不正確的是()。A)既可以行索引,又可以列索引B)不能使用標(biāo)簽索引C)當(dāng)傳入的行索引位置或列索引位置為區(qū)間時(shí),其為前閉后開(kāi)區(qū)間D)可以接收Series答案:D解析:難易程度:中題型:[單選題]58.正常情況下卷積網(wǎng)絡(luò)在多少層以后就很難優(yōu)化A)11B)15C)22D)25答案:C解析:[單選題]59.下列函數(shù)不是控制坐標(biāo)軸屬性的是()。A)xlabelB)xlimC)xticksD)xkcd答案:D解析:難易程度:中題型:[單選題]60.Tf.nn.conv2d(a,B,C,d),其中被卷積數(shù)據(jù)是A)bB)aC)cD)d答案:B解析:[單選題]61.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2、去到數(shù)據(jù)集的下一批(batch)3、如果預(yù)測(cè)值和輸出不一致,則調(diào)整權(quán)重4、對(duì)一個(gè)輸入樣本,計(jì)算輸出值A(chǔ))1,23.4B)4,3,2,1C)3,1,2,4D)1,4,3,2答案:D解析:[單選題]62.tf.GradientTape用來(lái)記錄()過(guò)程A)正向傳播B)反向傳播C)參數(shù)更新D)代價(jià)處理答案:A解析:[單選題]63.繪圖時(shí)顯示圖例的命令是()。A)plt.plotB)plt.legendC)plt.legemdD)plt.show答案:B解析:難易程度:易題型:[單選題]64.關(guān)于符號(hào)主義描述正確是A)是人工智能的主流B)是人工智能的基礎(chǔ)C)是人工智能的全部D)不是人工智能答案:A解析:[單選題]65.Vanishinggradientproblem是指在BP算法的過(guò)程中,error項(xiàng)逐漸變小,使得越靠前的網(wǎng)絡(luò)層的學(xué)習(xí)速率越來(lái)越低A)梯度上升問(wèn)題B)梯度優(yōu)化C)梯度消失問(wèn)題D)梯度下降法答案:C解析:[單選題]66.pytorch中,LSTM是否第一個(gè)維度是批次的參數(shù)為A)input_sizeB)batch_firstC)biasD)hidden_size答案:B解析:[單選題]67.神經(jīng)網(wǎng)絡(luò)的三層網(wǎng)絡(luò)結(jié)構(gòu)包括()。A)輸入層、中間層、輸出層B)輸入層、輸出層、中間層C)輸入層、隱藏層、輸出層D)輸入層、輸出層、隱藏層答案:C解析:難易程度:易題型:[單選題]68.tensorflow2.0誕生的時(shí)間是:A)2020.10.01B)2019.10.01C)2018.09.10D)2010.06.01答案:B解析:[單選題]69.百度飛槳中訓(xùn)練過(guò)程流程的內(nèi)層循環(huán)是指()。A)負(fù)責(zé)整個(gè)數(shù)據(jù)集的二次遍歷,采用分批次方式(batch)B)負(fù)責(zé)整個(gè)數(shù)據(jù)集的一次遍歷,采用分批次方式(batch)C)定義遍歷數(shù)據(jù)集的次數(shù),通過(guò)參數(shù)EPOCH_NUM設(shè)置D)負(fù)責(zé)整個(gè)數(shù)據(jù)集的多次遍歷,采用分批次方式(batch)答案:B解析:難易程度:易題型:[單選題]70.一幅彩色數(shù)字圖像,分辨率為1024*768,請(qǐng)問(wèn)在計(jì)算機(jī)中存儲(chǔ)需要多少空間?A)0.28MBB)1.28MBC)2.28MBD)3.28MB答案:C解析:[單選題]71.曼哈頓距離的的運(yùn)算方法是A)絕對(duì)值運(yùn)算B)開(kāi)方運(yùn)算C)內(nèi)積運(yùn)算D)線性運(yùn)算答案:A解析:[單選題]72.范數(shù)簡(jiǎn)稱(chēng)F-范數(shù),是一種矩陣范數(shù),記為()A)||*||FB)||·||FC)||-||FD)F||·||答案:B解析:[單選題]73.能夠觀測(cè)張量值分布的直方圖隨訓(xùn)練步驟的變化趨勢(shì)的函數(shù)是:A)writer.add_graphB)writer.add_scalarC)writer.add_histogramD)writer.add_figure答案:C解析:[單選題]74.()主要是指系統(tǒng)可以快速的對(duì)外部命令進(jìn)行響應(yīng),在對(duì)應(yīng)的時(shí)間里處理問(wèn)題,協(xié)調(diào)系統(tǒng)工作。A)網(wǎng)絡(luò)操作系統(tǒng)B)批處理系統(tǒng)C)分時(shí)系統(tǒng)D)實(shí)時(shí)系統(tǒng)答案:D解析:[單選題]75.對(duì)于序列[1,2.1,1.9,1,3.1,2.9]可能是A)二項(xiàng)式分布B)高斯分布C)均勻分布D)0-1分布答案:C解析:[單選題]76.()是指在一個(gè)操作系統(tǒng)中多個(gè)程序同時(shí)并行運(yùn)行A)超線程B)多線程C)虛擬化D)多任務(wù)答案:D解析:多任務(wù)是指在一個(gè)操作系統(tǒng)中多個(gè)程序同時(shí)并行運(yùn)行[單選題]77.Batch歸一化即是A)批量歸一化B)僅對(duì)輸入數(shù)據(jù)進(jìn)行歸一化C)僅對(duì)隱藏層進(jìn)行歸一化D)提升了參數(shù)搜索難度答案:A解析:[單選題]78.當(dāng)檢查數(shù)據(jù)時(shí),損失在2個(gè)周期后穩(wěn)定在大約0.75,但在15個(gè)周期后精度上升到接近1.0。這代表了什么?A)2周期后的訓(xùn)練是沒(méi)有意義的,因?yàn)槲覀冞^(guò)擬合了驗(yàn)證數(shù)據(jù)B)2周期后的訓(xùn)練是沒(méi)有意義的,因?yàn)槲覀冞^(guò)擬合了訓(xùn)練數(shù)據(jù)C)更大的訓(xùn)練集將使我們具有更好的驗(yàn)證準(zhǔn)確性D)更大的驗(yàn)證集將使我們具有更好的訓(xùn)練準(zhǔn)確性答案:B解析:[單選題]79.卷積層的作用是A)增強(qiáng)圖像B)簡(jiǎn)化圖像C)特征提取D)圖像處理答案:C解析:[單選題]80.灰度圖像與黑白圖像不同,在計(jì)算機(jī)圖像領(lǐng)域中黑白圖像只有黑白兩種顏色,灰度圖像在黑色與白色之間還有許多級(jí)的顏色()。A)亮度B)深度C)廣度D)色度答案:B解析:灰度圖像與黑白圖像不同,在計(jì)算機(jī)圖像領(lǐng)域中黑白圖像只有黑白兩種顏色,灰度圖像在黑色與白色之間還有許多級(jí)的顏色深度。[單選題]81.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒(méi)有下降,可能的原因是?A)正則參數(shù)太高B)陷入局部最小值C)學(xué)習(xí)率太高D)以上都有可能答案:D解析:[單選題]82.彩色圖片數(shù)據(jù)()維張量A)1B)2C)3D)4答案:C解析:[單選題]83.不是隨機(jī)梯度下降的特點(diǎn)是:A)批量數(shù)值選取為1B)學(xué)習(xí)率逐漸減小C)可以達(dá)到最小值D)在最小值附近波動(dòng)答案:C解析:[單選題]84.能實(shí)現(xiàn)將一維數(shù)據(jù)寫(xiě)入CSV文件中的是()A)foB)frC)foD)fname答案:A解析:難易程度:易題型:[單選題]85.全連接層的作用是A)濾波B)One-hot處理C)用于特征提取D)用于分類(lèi)答案:D解析:[單選題]86.?@tf.function?裝飾器的作用是A)開(kāi)啟會(huì)話B)創(chuàng)建函數(shù)C)在tensorflow中應(yīng)用函數(shù)D)匿名處理函數(shù)答案:A解析:[單選題]87.神經(jīng)網(wǎng)絡(luò)中W12的1是代表什么含義()。A)前一層的第一個(gè)神經(jīng)元B)后一層的第一個(gè)神經(jīng)元C)輸入層的第一個(gè)神經(jīng)元D)輸出層的第一個(gè)神經(jīng)元答案:B解析:難易程度:易題型:[單選題]88.矩陣A的Frobenius范數(shù)定義為矩陣A各項(xiàng)元素的絕對(duì)值平方的總()A)差B)點(diǎn)乘C)和D)商答案:C解析:[單選題]89.關(guān)于面向?qū)ο蟮某绦蛟O(shè)計(jì),以下選項(xiàng)中描述錯(cuò)誤的是()。A)面向?qū)ο蠓椒ㄅc人類(lèi)習(xí)慣的思維方法-B)面向?qū)ο蠓椒芍赜眯院肅)Python3.x解釋器內(nèi)部采用完全面向?qū)ο蟮姆绞綄?shí)現(xiàn)D)用面向?qū)ο蠓椒ㄩ_(kāi)發(fā)的軟件不容易理解答案:D解析:難易程度:易題型:[單選題]90.啟動(dòng)圖/會(huì)話的第一步是創(chuàng)建一個(gè)Session對(duì)象,如:A)sess=tf.Session()B)sess.close()C)tf.addD)tf.eqeal答案:A解析:[單選題]91.一個(gè)向量空間加上拓?fù)鋵W(xué)符合運(yùn)算的(加法及標(biāo)量乘法是連續(xù)映射)稱(chēng)為()A)拓?fù)湎蛄靠臻gB)內(nèi)積空間C)矢量空間D)希爾伯特空間答案:A解析:[單選題]92.BP算法首個(gè)應(yīng)用案例是?A)手寫(xiě)數(shù)字識(shí)別(CNN:LeNet)B)CPUC)GPUD)不清楚答案:A解析:[單選題]93.在手寫(xiě)數(shù)字大作業(yè)中,網(wǎng)上普遍使用的算法是()A)CNNB)CNNDC)GAND)GAND答案:A解析:難易程度:易題型:[單選題]94.我們可以通過(guò)下面哪種方法,將彩色圖像轉(zhuǎn)換為灰度圖像?()A)Gray=R*0.3+G*0.59+B*0.11B)Gray=R*0.59+G*0.3+B*0.11C)Gray=R*0.59+G*0.11+B*0.3D)Gray=R*0.3+G*0.11+B*0.59答案:A解析:[單選題]95.列表ls=[[1,2,3,4,5,6,7,8,9],以下選項(xiàng)中描述錯(cuò)誤的是()。A)ls可能是-B)ls可能是高維列表C)lsD)ls可能是多維列表答案:B解析:難易程度:易題型:[單選題]96.從sigmoid函數(shù)的圖像中可以看到,如果x稍微大點(diǎn)的話,其值接近為1,則在進(jìn)行反向傳播算法的過(guò)程中對(duì)其求導(dǎo)的導(dǎo)數(shù)非常的接近0,因此會(huì)導(dǎo)致梯度為0的()的現(xiàn)象A)梯度消失B)梯度上升C)梯度下降D)梯度發(fā)散答案:A解析:[單選題]97.提升管道性能描述錯(cuò)誤的是:A)使用prefetch方法讓數(shù)據(jù)準(zhǔn)備和參數(shù)迭代兩個(gè)過(guò)程相互并行。B)使用map時(shí)設(shè)置num_parallel_calls讓數(shù)據(jù)轉(zhuǎn)換過(guò)程多進(jìn)程執(zhí)行。C)使用cache方法讓數(shù)據(jù)在第一個(gè)epoch后緩存到內(nèi)存中,僅限于數(shù)據(jù)集不大情形。D)使用map轉(zhuǎn)換時(shí),不用batch,采用向量化的轉(zhuǎn)換方法對(duì)每個(gè)batch進(jìn)行轉(zhuǎn)換。答案:D解析:[單選題]98.在神經(jīng)網(wǎng)絡(luò)-開(kāi)始應(yīng)用卷積層將使訓(xùn)練A)更快B)這取決于許多因素。它可能會(huì)使您的訓(xùn)練更快或更慢,并且設(shè)計(jì)不良的卷積層可能甚至比普通的DNN還低效C)更慢D)持平答案:B解析:[單選題]99.進(jìn)行獨(dú)熱處理的函數(shù)是A)scatter_B)onehotC)eyeD)diag答案:A解析:[單選題]100.反向傳播算法一開(kāi)始計(jì)算什么內(nèi)容的梯度,之后將其反向傳播?A)預(yù)測(cè)結(jié)果與樣本標(biāo)簽之間的誤差B)各個(gè)輸入樣本的平方差之和C)各個(gè)網(wǎng)絡(luò)權(quán)重的平方差之和D)都不對(duì)答案:A解析:[單選題]101.abs(-3+4i)或者|-3i+4|的結(jié)果是()。A)3.0B)執(zhí)行錯(cuò)誤C)4.0D)5.0答案:D解析:難易程度:易題型:[單選題]102.sigmoid激活函數(shù)描述錯(cuò)誤的是:A)結(jié)果值為0-1B)結(jié)果為正類(lèi)別概率C)導(dǎo)數(shù)值為0-1D)常用于二分類(lèi)答案:C解析:[單選題]103.神經(jīng)網(wǎng)絡(luò)中使用激活函數(shù)處理非線性因素,是因?yàn)?)的效果不夠A)非線性模型B)非線性+線性模型C)雙曲線性模型D)線性模型答案:D解析:[單選題]104.pytorch中用于處理簡(jiǎn)單模型的構(gòu)建方式為:A)繼承nn.Module基類(lèi)構(gòu)建自定義模型B)使用nn.Sequential按層順序構(gòu)建模型C)繼承nn.Module基類(lèi)構(gòu)建模型并輔助應(yīng)用模型容器進(jìn)行封裝(nn.Sequential,nn.ModuleList,nn.ModuleDict)D)使用model直接處理答案:B解析:[單選題]105.為什么將數(shù)據(jù)分為訓(xùn)練集和測(cè)試集?A)使訓(xùn)練更快B)用以前看不見(jiàn)的數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò)C)用以前看不見(jiàn)的數(shù)據(jù)測(cè)試網(wǎng)絡(luò)D)加快測(cè)試速度答案:C解析:[單選題]106.當(dāng)權(quán)值過(guò)大,前面層比后面層梯度變化更快,會(huì)引起梯度爆炸問(wèn)題,就是所謂的()A)梯度爆炸B)卷積C)池化D)全連接答案:A解析:[單選題]107.在信息論中,熵是接收的每條消息中包含的信息的平均量,又被稱(chēng)為()、信源熵、平均自信息量。A)離散隨機(jī)事件B)信息熵C)范數(shù)D)信息論答案:B解析:[單選題]108.定義步長(zhǎng)張量strides=[1,3,3,1]能縱向移動(dòng)A)1像素B)2像素C)3像素D)4像素答案:C解析:[單選題]109.torch.nn.Conv2d中輸出通道的參數(shù)為A)strideB)kerner_sizeC)in_channelsD)out_channels答案:D解析:[單選題]110.關(guān)于數(shù)據(jù)庫(kù)數(shù)據(jù)的讀寫(xiě),下列說(shuō)法正確的有()。A)read_sql_table可以使用SQL語(yǔ)句讀寫(xiě)數(shù)據(jù)庫(kù)數(shù)據(jù)B)pandas除了read_sql之外,沒(méi)有其他數(shù)據(jù)庫(kù)讀寫(xiě)函數(shù)C)使用read_sql函數(shù)讀取數(shù)據(jù)庫(kù)數(shù)據(jù)時(shí)不需要使用數(shù)據(jù)庫(kù)連接D)read_sql既可以使用SQL語(yǔ)句讀取數(shù)據(jù)庫(kù)數(shù)據(jù),又可以直接讀取數(shù)據(jù)庫(kù)表答案:D解析:難易程度:中題型:[單選題]111.pytorch增加維度的函數(shù)是:A)reshapeB)squeezeC)unsqueezeD)transpose答案:C解析:[單選題]112.在深度學(xué)習(xí)中,如果輸入圖像有2個(gè),經(jīng)過(guò)10個(gè)卷積核卷積后,輸出圖像有A)2B)5C)10D)不確定答案:C解析:[單選題]113.多義現(xiàn)象可以被定義為在文本對(duì)象中一個(gè)單詞或短語(yǔ)的多種含義共存。下列哪一種方法可能是解決此問(wèn)題的最好選擇?BA)隨機(jī)森林分類(lèi)器B)卷積神經(jīng)網(wǎng)絡(luò)C)梯度爆炸D)上述所有方法答案:B解析:[單選題]114.np.uint8是什么數(shù)據(jù)類(lèi)型()。A)一個(gè)字節(jié)大小,-128至127B)無(wú)符號(hào)整數(shù),0至255C)布爾類(lèi)型D)python對(duì)象答案:B解析:難易程度:易題型:[單選題]115.tensorflow一般和哪個(gè)框架配合使用A)kerasB)pytorchC)mxnetD)caffee答案:A解析:[單選題]116.Python中可用于機(jī)器學(xué)習(xí)的庫(kù)文件是哪個(gè)()。A)learn-moreB)scikit-learnC)gekingD)auto答案:B解析:難易程度:易題型:[單選題]117.對(duì)于?性格溫和?這種定性數(shù)據(jù)進(jìn)行數(shù)量比較,必須:A)首先定量化B)首先建立距離空間C)首先定性化D)直接運(yùn)算答案:A解析:[單選題]118.關(guān)于數(shù)據(jù)集劃分,下列說(shuō)法正確的是()。A)訓(xùn)練集的數(shù)據(jù)總是越多越好B)訓(xùn)練集與測(cè)試集的理想劃分比例是5:5C)龐大數(shù)據(jù)集的訓(xùn)練集與測(cè)試集的劃分比例可以為9:5D)訓(xùn)練集的數(shù)據(jù)量越大,模型的泛化能力越好答案:C解析:難易程度:中題型:[單選題]119.在keras.layers.Conv2D(filters,kernel_size,strides=(1,1),padding='valid',data_format=None,dilation_rate=(1,1),activation=None,use_bias=True,kernel_initializer='glorot_uniform',bias_initializer='zeros',kernel_regularizer=None,bias_regularizer=None,activity_regularizer=None,kernel_constraint=None,bias_constraint=None)方法中,表示輸出空間的維度(即卷積中濾波器的輸出數(shù)量)是哪個(gè)參數(shù)?A)filtersB)paddingC)kernel_sizeD)以上都沒(méi)有答案:A解析:[單選題]120.pytorch中拼接的函數(shù)是A)concatB)c_C)catD)concateete答案:C解析:[單選題]121.對(duì)y=sigmoid(x)函數(shù)對(duì)x的導(dǎo)數(shù)可以寫(xiě)成A)y(1+y)B)exp(-x)C)1-exp(-x)D)y(1-y)答案:D解析:[單選題]122.關(guān)于深度學(xué)習(xí)的說(shuō)法正確的是()A)增加層數(shù),總會(huì)增加訓(xùn)練準(zhǔn)確率B)減少層數(shù),總會(huì)降低預(yù)測(cè)準(zhǔn)確率C)增加層數(shù),可能降低訓(xùn)練準(zhǔn)確率D)減少層數(shù),總會(huì)降低訓(xùn)練準(zhǔn)確率答案:C解析:[單選題]123.廢電池屬于什么垃圾A)有害垃圾B(niǎo))易腐垃圾C)可回收物D)不清楚答案:A解析:[單選題]124.對(duì)于*非連續(xù)*目標(biāo)在深度神經(jīng)網(wǎng)絡(luò)的優(yōu)化過(guò)程中,下面哪種梯度下降方法是最好的?DA)DB)AdaGradC)1-BFGSD)拉格朗日松Subgradientmethod答案:D解析:[單選題]125.sigmoid函數(shù)常使用的領(lǐng)域是A)多分類(lèi)B)二分類(lèi)C)rnnD)cnn答案:B解析:[單選題]126.已知:大腦是有很多個(gè)叫做神經(jīng)元的東西構(gòu)成,神經(jīng)網(wǎng)絡(luò)是對(duì)大腦的簡(jiǎn)單的數(shù)學(xué)表達(dá)。每一個(gè)神經(jīng)元都有輸入、處理函數(shù)和輸出。神經(jīng)元組合起來(lái)形成了網(wǎng)絡(luò),可以擬合任何函數(shù)。為了得到最佳的神經(jīng)網(wǎng)絡(luò),我們用梯度下降方法不斷更新模型給定上述關(guān)于神經(jīng)網(wǎng)絡(luò)的描述,什么情況下神經(jīng)網(wǎng)絡(luò)模型被稱(chēng)為深度學(xué)習(xí)模型?()A)加入更多層,是神經(jīng)網(wǎng)絡(luò)的深度增加B)有維度更高的數(shù)據(jù)。C)當(dāng)這是一個(gè)圖形識(shí)別的問(wèn)題時(shí)D)以上都不正確答案:A解析:[單選題]127.CrossEntropy交叉熵主要度量?jī)蓚€(gè)()分布間的差異性信息A)概率B)矢量C)矩陣數(shù)據(jù)D)空間答案:A解析:[單選題]128.()并不會(huì)改變網(wǎng)絡(luò),他會(huì)對(duì)神經(jīng)元做隨機(jī)刪減,從而使得網(wǎng)絡(luò)復(fù)雜度降低,有效的防止過(guò)擬合。A)BatchNormalizationB)L1正則化C)L2正則化D)Dropout答案:D解析:Dropout并不會(huì)改變網(wǎng)絡(luò),他會(huì)對(duì)神經(jīng)元做隨機(jī)刪減,從而使得網(wǎng)絡(luò)復(fù)雜度降低,有效的防止過(guò)擬合。[單選題]129.梯度下降算法的正確步驟是什么?1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差BA)l.B).1C).4D).2答案:B解析:[單選題]130.深度學(xué)習(xí)主要應(yīng)用于()、語(yǔ)音識(shí)別、自然原因處理和智能醫(yī)療等各個(gè)領(lǐng)域。A)智能家居B)圖像識(shí)別C)數(shù)據(jù)分析D)以上都不對(duì)答案:B解析:[單選題]131.通過(guò)試驗(yàn)超參數(shù)的不同取值不可以A)選擇對(duì)訓(xùn)練集目標(biāo)而言的最優(yōu)解B)對(duì)于開(kāi)發(fā)集而言的最優(yōu)解C)超參搜索過(guò)程中最想優(yōu)化的東西D)簡(jiǎn)化參數(shù)調(diào)試答案:D解析:[單選題]132.以下選項(xiàng)中,用于機(jī)器學(xué)習(xí)方向的第三方庫(kù)是()A)jiebaB)losoC)paddleD)TensorE)平均值F)均方誤差G)均方誤差均值H)均方誤差的和答案:C解析:難易程度:易題型:在下列代碼中,第二個(gè)cost使用什么值衡量()defloss(self,z,y):error=z-ycost=error*errorcost=np.mean(cost)returncost難易程度:易題型:第2部分:多項(xiàng)選擇題,共41題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]133.以下屬于深度學(xué)習(xí)常用框架的有A)tensorflow2.0B)kerasC)caffeD)sklearn答案:ABC解析:[多選題]134.我們常用的搜索最佳配置的方法包括()A)網(wǎng)格搜索B)主動(dòng)搜索C)隨機(jī)搜索D)被動(dòng)搜索答案:AC解析:[多選題]135.騰訊云實(shí)例可理解為云服務(wù)器(CloudVirtualMachine,CVM),包含()、內(nèi)存、網(wǎng)絡(luò)等最基礎(chǔ)的計(jì)算組件。A)磁盤(pán)B)CPUC)音箱D)操作系統(tǒng)答案:ABD解析:實(shí)例可理解為云服務(wù)器(CloudVirtualMachine,CVM),包含CPU、內(nèi)存、操作系統(tǒng)、網(wǎng)絡(luò)、磁盤(pán)等最基礎(chǔ)的計(jì)算組件。[多選題]136.對(duì)于集合外一個(gè)點(diǎn),到該集合的距離是A)是該點(diǎn)到集合邊界點(diǎn)的最短距離B)是該點(diǎn)到集合內(nèi)所有點(diǎn)的最短距離C)是該點(diǎn)到集合內(nèi)任意一點(diǎn)的距離D)是該點(diǎn)到集合內(nèi)非邊界點(diǎn)的某點(diǎn)的距離答案:AB解析:[多選題]137.TensorFlow軟件庫(kù)可以輕松地將計(jì)算工作部署到多種平臺(tái)()A)CPUB)GPUC)TPUD)SDK答案:ABC解析:[多選題]138.GRU中的門(mén)有A)遺忘門(mén)B)輸入門(mén)C)輸出門(mén)D)更新門(mén)答案:CD解析:[多選題]139.以下哪些詞向量之間的差值非常接近?A)男人,女人B)國(guó)王,王后C)父親,母親D)父親,兒子答案:ABC解析:[多選題]140.交叉熵函數(shù)是卷積神經(jīng)網(wǎng)絡(luò)中常使用函數(shù)softmax_cross_entropy的作用是?A)在全連接層B)進(jìn)行優(yōu)化時(shí)用C)用信息熵D)用softmax映射到概率空間答案:ABCD解析:[多選題]141.pytorch在gpu上跑數(shù)據(jù)時(shí),需要將()移動(dòng)到gpu上A)模型B)數(shù)據(jù)C)tensorboardD)評(píng)估指標(biāo)答案:AB解析:[多選題]142.騰訊云的網(wǎng)絡(luò)環(huán)境可以分為:()A)私有網(wǎng)絡(luò)B)免費(fèi)網(wǎng)絡(luò)C)基礎(chǔ)網(wǎng)絡(luò)D)付費(fèi)網(wǎng)絡(luò)答案:AC解析:騰訊云的網(wǎng)絡(luò)環(huán)境可以分為:基礎(chǔ)網(wǎng)絡(luò)和私有網(wǎng)絡(luò)(VPC)[多選題]143.梯度為0的點(diǎn)可以是A)局部最優(yōu)解B)全局最優(yōu)解C)鞍點(diǎn)D)轉(zhuǎn)折點(diǎn)答案:ABC解析:[多選題]144.不使用全連接處理序列問(wèn)題的原因是A)時(shí)間步不能確定B)模型太簡(jiǎn)單C)只能處理分類(lèi)D)算法精度不足答案:ABD解析:[多選題]145.云硬盤(pán)(CloudBlockStorage,CBS)為您提供用于云服務(wù)器的持久性數(shù)據(jù)塊級(jí)存儲(chǔ)服務(wù),以下哪些描述是正確的()A)云硬盤(pán)提供多種類(lèi)型及規(guī)格的磁盤(pán)實(shí)例,滿足穩(wěn)定低延遲的存儲(chǔ)性能要求。B)云硬盤(pán)中的數(shù)據(jù)自動(dòng)地在可用區(qū)內(nèi)以多副本冗余方式存儲(chǔ),避免數(shù)據(jù)的單點(diǎn)故障風(fēng)險(xiǎn),提供高達(dá)99.9999999%的數(shù)據(jù)可靠性C)使用塊存儲(chǔ)設(shè)備映射(device-mapping)來(lái)將這些存儲(chǔ)設(shè)備映射為自身可以識(shí)別的位置D)云硬盤(pán)支持在同可用區(qū)的實(shí)例上掛載/卸載,并且可以在幾分鐘內(nèi)調(diào)整存儲(chǔ)容量,滿足彈性的數(shù)據(jù)需求。您只需為配置的資源量支付低廉的價(jià)格就能享受到以上的功能特性。答案:ABD解析:云硬盤(pán)(CloudBlockStorage,CBS)為您提供用于云服務(wù)器的持久性數(shù)據(jù)塊級(jí)存儲(chǔ)服務(wù)。云硬盤(pán)中的數(shù)據(jù)自動(dòng)地在可用區(qū)內(nèi)以多副本冗余方式存儲(chǔ),避免數(shù)據(jù)的單點(diǎn)故障風(fēng)險(xiǎn),提供高達(dá)99.9999999%的數(shù)據(jù)可靠性。云硬盤(pán)提供多種類(lèi)型及規(guī)格的磁盤(pán)實(shí)例,滿足穩(wěn)定低延遲的存儲(chǔ)性能要求。云硬盤(pán)支持在同可用區(qū)的實(shí)例上掛載/卸載,并且可以在幾分鐘內(nèi)調(diào)整存儲(chǔ)容量,滿足彈性的數(shù)據(jù)需求。您只需為配置的資源量支付低廉的價(jià)格就能享受到以上的功能特性。[多選題]146.表示一副彩色圖像有多種方法,包括()A)RGBB)CMYC)HSID)YCbCr答案:ABCD解析:[多選題]147.alexnet網(wǎng)絡(luò)中使用的技術(shù)有A)數(shù)據(jù)增強(qiáng)B)relu激活C)dropout正則D)gpu加速答案:ABCD解析:[多選題]148.pytorch訓(xùn)練模型的三種方式為:A)腳本形式訓(xùn)練循環(huán)B)函數(shù)形式訓(xùn)練循環(huán)C)類(lèi)形式訓(xùn)練循環(huán)D)fit函數(shù)答案:ABC解析:[多選題]149.控制控制cnn降采樣的方式有A)卷積B)最大池化C)平均池化D)全連接答案:ABC解析:[多選題]150.下列屬于序列處理多對(duì)一的場(chǎng)景是A)圖像預(yù)測(cè)B)情感分類(lèi)C)語(yǔ)音翻譯D)寫(xiě)唐詩(shī)答案:AB解析:[多選題]151.人工智能的的三個(gè)主要流派是指A)符號(hào)主義B)連接主義C)行為主義D)機(jī)器學(xué)習(xí)答案:ABC解析:[多選題]152.關(guān)于反向傳播算法,它也存在不足,其主要有:A)訓(xùn)練時(shí)間較長(zhǎng)B)完全不能訓(xùn)練,訓(xùn)練時(shí)由于權(quán)值調(diào)整過(guò)大使激活函數(shù)達(dá)到飽和C)易陷入局部極小值D)?喜新厭舊?。訓(xùn)練過(guò)程中,學(xué)習(xí)新樣本時(shí)有遺忘舊樣本的趨勢(shì)答案:ABCD解析:[多選題]153.哪些框架支持運(yùn)行循環(huán)神經(jīng)網(wǎng)絡(luò)?A)TensorFlowB)KerasC)CaffeD)PyTorch答案:ABCD解析:[多選題]154.complie中包含的參數(shù)有A)metricsB)lossC)optimizerD)epochs答案:ABC解析:[多選題]155.在AI領(lǐng)域,圖像識(shí)別技術(shù)經(jīng)常會(huì)應(yīng)用到好多場(chǎng)景,比如應(yīng)用案例有?A)人臉檢測(cè)B)表情判斷C)動(dòng)作識(shí)別D)無(wú)人駕駛、車(chē)牌識(shí)別答案:ABCD解析:[多選題]156.人工智能是解決機(jī)器()的學(xué)科A)感知B)理解C)決策D)證明答案:ABC解析:[多選題]157.可以用于卷積網(wǎng)絡(luò)處理分類(lèi)的是A)最大池化B)平均池化C)全連接D)卷積答案:BC解析:[多選題]158.在《深度學(xué)習(xí)》網(wǎng)絡(luò)中,神經(jīng)網(wǎng)絡(luò)層的卷積部份一般都有什么層構(gòu)成?A)卷積層B)RELUC)POOLING層D)pedding答案:ABC解析:[多選題]159.writer.add_scalar僅能對(duì)標(biāo)量的值的變化進(jìn)行可視化,一般用于()分析A)損失B)評(píng)估指標(biāo)C)權(quán)重D)截距答案:AB解析:[多選題]160.語(yǔ)句中:tensorflow.truncated_normal(shape,mean,stddev)以下說(shuō)法正確的是A)shape是張量形狀B)正態(tài)隨機(jī)數(shù)填充C)隨機(jī)數(shù)需截?cái)郉)方差是stddev答案:ABC解析:[多選題]161.哪些屬于序列數(shù)據(jù)A)語(yǔ)音識(shí)別B)情感分類(lèi)C)機(jī)器翻譯D)DNA序列分析答案:ABCD解析:[多選題]162.深度學(xué)習(xí)會(huì)用到()的學(xué)習(xí)方法來(lái)訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)。A)有監(jiān)督B)無(wú)監(jiān)督C)行為主義D)機(jī)器學(xué)習(xí)答案:AB解析:[多選題]163.圖像識(shí)別常用的方案有那些?A)人臉檢測(cè)B)表情判斷C)動(dòng)作識(shí)別D)無(wú)人駕駛答案:ABCD解析:[多選題]164.以下屬于梯度下降的有A)BGDB)SGDC)Mini-BatchD)dropout答案:ABC解析:[多選題]165.在tensorflow中,tf.reshape函數(shù)的參數(shù)是(tensor,shape,name=None),以下哪些描述是正確的?A)函數(shù)的作用是將tensor變換為參數(shù)shape形式B)其中的shape為一個(gè)列表形式C)name可省略D)-1所代表的含義是我們不用親自去指定這一維的大小,函數(shù)會(huì)自動(dòng)進(jìn)行計(jì)算答案:ABCD解析:[多選題]166.pytorch常用的數(shù)據(jù)類(lèi)型有:A)torch.float16,B)16,C)8,D)torch.bool答案:ABCD解析:[多選題]167.在數(shù)學(xué)里面,內(nèi)積空間是增添了一個(gè)額外的結(jié)構(gòu)的向量空間。這個(gè)額外的結(jié)構(gòu)叫做(),或(),或()A)內(nèi)積B)標(biāo)量積C)點(diǎn)積D)點(diǎn)乘答案:ABC解析:[多選題]168.Linux具有()等特點(diǎn)。A)開(kāi)放源碼B)獨(dú)立版權(quán)C)沒(méi)有版權(quán)D)技術(shù)社區(qū)用戶答案:ACD解析:Linux具有開(kāi)放源碼、沒(méi)有版權(quán)、技術(shù)社區(qū)用戶多等特點(diǎn)。[多選題]169.可用于創(chuàng)建獨(dú)熱編碼的函數(shù)有:(不限框架)A)to_categorical()B)OneHotEncoder()C)eye()D)diag()答案:ABC解析:np.eye()也可以進(jìn)行獨(dú)熱[多選題]170.神經(jīng)網(wǎng)絡(luò)解決非線性分類(lèi),是通過(guò):A)構(gòu)造神經(jīng)網(wǎng)絡(luò)B)用激活函數(shù)C)訓(xùn)練權(quán)重矩陣D)讓損失最大化答案:ABC解析:[多選題]171.語(yǔ)句a=np.array([1,2,3,45,22,100])S=tf.convert_to_tensor(A,name="sss")的正確斷言是:A)a是np指定的張量B)可以實(shí)現(xiàn)對(duì)tf張量的任意填充C)convert_to_tensor將a轉(zhuǎn)換成tf張量D)S是指向tf張量的結(jié)點(diǎn)答案:ABCD解析:[多選題]172.CNN網(wǎng)絡(luò)結(jié)構(gòu)中常用的處理有A)卷積層B)池化層C)全連接層D)激活函數(shù)答案:ABCD解析:[多選題]173.關(guān)于Padding的說(shuō)法中:正確的是A)以0填充B)填充厚度是卷積核一半C)步長(zhǎng)為1D)圖像尺寸變小答案:AB解析:第3部分:判斷題,共54題,請(qǐng)判斷題目是否正確。[判斷題]174.關(guān)于循環(huán)神經(jīng)網(wǎng)絡(luò),GRU中有兩個(gè)門(mén)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]175.對(duì)于函數(shù)tf.expand_dims函數(shù)用于對(duì)張量維度擴(kuò)充。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]176.Print(sess.run(tf.sigmoid(a)))是邏輯回歸A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]177.訓(xùn)練機(jī)器學(xué)習(xí)算法的主要目的是調(diào)整權(quán)重w以最小化損失函數(shù)或成本函數(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]178.在深度神經(jīng)網(wǎng)絡(luò)中,通常使用一種叫修正線性單元(Rectifiedlinearunit,ReLU)作為神經(jīng)元的激活函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]179.人工智能屬于機(jī)器學(xué)習(xí)的一個(gè)分支。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]180.機(jī)器學(xué)習(xí)是一種隨著經(jīng)驗(yàn)積累、自動(dòng)提高性能、完成特定任務(wù)的計(jì)算機(jī)程序A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]181.與傳統(tǒng)機(jī)器學(xué)習(xí)方法相比,深度學(xué)習(xí)的優(yōu)勢(shì)在于深度學(xué)習(xí)完全不提取底層特征,如圖像邊緣、紋理等。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]182.超參數(shù)范圍中,隨機(jī)取值是選擇合適的標(biāo)尺進(jìn)行取值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]183.機(jī)器演奏音樂(lè)屬于一對(duì)多處理方式A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]184.Yolo采用一個(gè)CNN網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)檢測(cè),是單管道策略,其訓(xùn)練與預(yù)測(cè)都是end-to-end,所以Yolo算法比較簡(jiǎn)潔且速度快A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]185.Tf.random_normal()函數(shù)用于從服從指定正態(tài)分布的數(shù)值中取出指定個(gè)數(shù)的值A(chǔ))正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]186.fit函數(shù)返回一個(gè)History的對(duì)象,其History.history屬性記錄了損失函數(shù)和其他指標(biāo)的數(shù)值隨epoch變化的情況,如果有驗(yàn)證集的話,也包含了驗(yàn)證集的這些指標(biāo)變化情況A)正確B)錯(cuò)誤答案:對(duì)解析:fit函數(shù)返回一個(gè)History的對(duì)象,其History.history屬性記錄了損失函數(shù)和其他指標(biāo)的數(shù)值隨epoch變化的情況,如果有驗(yàn)證集的話,也包含了驗(yàn)證集的這些指標(biāo)變化情況[判斷題]187.caffe的基本工作流程所有計(jì)算以層的形式表示,網(wǎng)絡(luò)層所做的事情就是輸入數(shù)據(jù),然后輸出計(jì)算結(jié)果。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]188.均方損失函數(shù),是個(gè)數(shù)量函數(shù),它的張量的維度是0A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.cost.backward()會(huì)一直疊加梯度A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.數(shù)據(jù)增強(qiáng)不能解決過(guò)擬合問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.深度學(xué)習(xí)的發(fā)展先后經(jīng)過(guò)起源階段、發(fā)展階段、和爆發(fā)階段。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.在深度多層感知機(jī)網(wǎng)絡(luò)中,梯度爆炸會(huì)引起網(wǎng)絡(luò)不穩(wěn)定,最好的結(jié)果是無(wú)法從訓(xùn)練數(shù)據(jù)中學(xué)習(xí),而最壞的結(jié)果是出現(xiàn)無(wú)法再更新的NaN權(quán)重值。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]193.請(qǐng)閱讀以下情景:情景1:你擁有一份阿卡迪亞市(Arcadiacitv)地圖的數(shù)據(jù),數(shù)據(jù)中包含市內(nèi)和郊區(qū)的航拍圖片。你的任務(wù)是將城市劃分為工業(yè)區(qū)、農(nóng)場(chǎng)以及山川河流等自然區(qū)域等等。情景2:你擁有一份阿卡迪亞市(Arcadiacity)地圖的數(shù)據(jù),數(shù)據(jù)中包含詳細(xì)的公路網(wǎng)和各個(gè)地標(biāo)之間的距離,而這些都是以圖表的形式呈現(xiàn)的。你的任務(wù)是找出任意兩個(gè)地標(biāo)之間的最短距離習(xí)以在應(yīng)用但無(wú)法應(yīng)用在情景2中,這種說(shuō)法是:A)正確的B)錯(cuò)誤的答案:錯(cuò)解析:[判斷題]194.理論上用sigmoid函數(shù)也能將運(yùn)算映射到概率空間。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]195.梯度消失可以通過(guò)更好的激活函數(shù)來(lái)解決A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.描點(diǎn)標(biāo)注是指圖像中選取要標(biāo)注的實(shí)體,使用方框描述其所在位置的一-類(lèi)任務(wù)。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]197.resnet可以很好解決梯度消失問(wèn)題A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]198.Relu是一個(gè)激活函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]199.在歐氏空間中,凸集是對(duì)于集合內(nèi)的每一對(duì)點(diǎn),連接該對(duì)點(diǎn)的直線段上的每個(gè)點(diǎn)也在該集合內(nèi)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]200.有了聯(lián)結(jié)權(quán)重w和激活函數(shù)H(x)之后,就可以由前往后計(jì)算,依次算出所有的經(jīng)過(guò)聯(lián)結(jié)權(quán)重處理后的輸出值,經(jīng)過(guò)激活函數(shù)處理之后的輸出值,最終算出輸出層的y值。這就是前向傳播算法A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]201.Pytorch通過(guò)反向自動(dòng)求導(dǎo)技術(shù)實(shí)現(xiàn)了神經(jīng)網(wǎng)絡(luò)的零延遲任意改變。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]202.Keras必須依賴(lài)其他框架才能使用A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]203.使用torch.utils.data.TensorDataset根據(jù)Tensor創(chuàng)建數(shù)據(jù)集(numpy的array,Pandas的DataFrame需要先轉(zhuǎn)換成Tensor)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]204.損失函數(shù),輸出是個(gè)向量。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]205.深度學(xué)習(xí)是含有一個(gè)隱含層的多層神經(jīng)網(wǎng)絡(luò)模型的強(qiáng)化學(xué)習(xí),訓(xùn)練過(guò)程加入了激活函數(shù)。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]206.最常用的池化方式是最大池化A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]207.池化是降采樣的唯一手段A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]208.Padding(填充)屬性定義元素邊框與元素內(nèi)容之間的空間A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.對(duì)于形如[[[],[]]]的張量,它的維度向量是[1,2,0]。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]210.每個(gè)神經(jīng)元可以有一個(gè)輸入和多個(gè)輸出。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.卷積不可以處理序列模型A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]212.學(xué)習(xí)率增加,模型能力增加。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]213.增大卷積核的大小必然會(huì)提高卷積神經(jīng)網(wǎng)絡(luò)的性能。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]214.可以利用卷積達(dá)到降采樣的目的A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]215.物體檢測(cè)中應(yīng)用NMS算法的主要目的是消除多余(交叉重復(fù))的窗口,找到最佳物體檢測(cè)位置。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.增大權(quán)重和偏置的初始化值在神經(jīng)網(wǎng)絡(luò)中引入了非線性。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]217.梯度下降是訓(xùn)練機(jī)器學(xué)習(xí)算法中常用的優(yōu)化技術(shù)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]218.最大池化可以應(yīng)用到多分類(lèi)前進(jìn)行處理A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]219.事件的信息量,與事件發(fā)生的概率無(wú)關(guān)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]220.在實(shí)際項(xiàng)目中,不一定需要驗(yàn)證集A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]221.LSTM可以解決梯度消失問(wèn)題A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.RMSprop算法是將指數(shù)加權(quán)平均數(shù)先平方再開(kāi)方A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]223.深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),才能展現(xiàn)出神奇的效果,但現(xiàn)實(shí)生活中往往會(huì)遇到小樣本問(wèn)題,此時(shí)深度學(xué)習(xí)方法無(wú)法入手,傳統(tǒng)的機(jī)器學(xué)習(xí)方法就可以處理A)正確B)錯(cuò)誤答案:對(duì)解析:深度學(xué)習(xí)模型需要大量的訓(xùn)練數(shù)據(jù),才能展現(xiàn)出神奇的效果,但現(xiàn)實(shí)生活中往往會(huì)遇到小樣本問(wèn)題,此時(shí)深度學(xué)習(xí)方法無(wú)法入手,傳統(tǒng)的機(jī)器學(xué)習(xí)方法就可以處理[判斷題]224.雙向RNN可以解決梯度消失問(wèn)題A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]225.卷積后提取特征的個(gè)數(shù)小于卷積核的個(gè)數(shù)。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]226.使用梯度裁剪有助于減緩梯度爆炸問(wèn)題。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]227.古典概率通常又叫事前概率,是指當(dāng)隨機(jī)事件中各種可能發(fā)生的結(jié)果及其出現(xiàn)的次數(shù)都可以由演繹或外推法得知,而無(wú)需經(jīng)過(guò)任何統(tǒng)計(jì)試驗(yàn)即可計(jì)算各種可能發(fā)生結(jié)果的概率。A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共33題,請(qǐng)?jiān)诳瞻滋幪顚?xiě)正確答案。[問(wèn)答題]228.面哪種情況下,一階梯度下降不一定正確工作(可能會(huì)卡住)?A)無(wú)圖B)無(wú)答案答案:A解析:[問(wèn)答題]229.名詞解釋?zhuān)簠^(qū)域映射答案:使感興趣范圍的灰度變亮(或變暗),而保持其他灰度級(jí)不變-即區(qū)域映射解析:[問(wèn)答題]230.編程:實(shí)現(xiàn)計(jì)算真實(shí)值與輸入值之間的交叉熵,并將結(jié)果輸出。注:輸入值為變量,形狀為2行3列,數(shù)據(jù)類(lèi)型為32位浮點(diǎn)型。真實(shí)值為變量,形狀為2行3列,數(shù)據(jù)類(lèi)型為32位浮點(diǎn)型。答案:ImporttensorflowastfInput_data=tf.Variable([[0.2,0.1,0.9],[0.3,0.4,0.6]],dtype=tf.float32)Labels=tf.constant([[1,0,0],[0,1,0]],dtype=tf.float32)Cross_entropy=-tf.reduce_mean(labels*tf.log(tf.clip_by_value(input_data,1e-10,1.0)))Withtf.Session()assess:init=tf.global_variables_initializer()sess.run(init)print(sess.run(cross_entropy))解析:[問(wèn)答題]231.在tensorflow構(gòu)建階段,節(jié)點(diǎn)的執(zhí)行步驟被描述成為_(kāi)___。答案:圖;解析:[問(wèn)答題]232.簡(jiǎn)述卷積神經(jīng)網(wǎng)絡(luò)卷積層的結(jié)構(gòu)特點(diǎn)。答案:卷積層主要用來(lái)進(jìn)行特征提取,常用的方式是進(jìn)行卷積操作,在圖片上采用合適大小的卷積核在每一個(gè)通道上進(jìn)行掃描,卷積得到圖像的鄰域特征。解析:[問(wèn)答題]233.在神經(jīng)網(wǎng)絡(luò)中,激活函數(shù)的作用是加入_______因素。答案:非線性;解析:[問(wèn)答題]234.卷積函數(shù)中strides參數(shù)的作用是什么?答案:Strides是在卷積層工作的時(shí)候,每次滑動(dòng)的單位,在實(shí)際工作過(guò)程中strides=1代表每次滑動(dòng)一個(gè)單位的像素,strides=2表示每次滑動(dòng)2個(gè)像素值。解析:[問(wèn)答題]235.tf.clip_by_value(A,min,max)函數(shù)的作用是什么?答案:輸入一個(gè)張量A,把A中的每一個(gè)元素的值都?jí)嚎s在min和max之間。小于min的讓它等于min,大于max的元素的值等于max。解析:[問(wèn)答題]236.繪制散點(diǎn)的方法_______答案:scatter()解析:[問(wèn)答題]237.聲明變量通常使用_______函數(shù)。答案:Tf.Variable();解析:[問(wèn)答題]238.CNN可以有效提取圖像中的_______答案:特征解析:[問(wèn)答題]239.為什么需要TensorFlow等庫(kù)?答案:深度學(xué)習(xí)通常意味著建立具有很多層的大規(guī)模的神經(jīng)網(wǎng)絡(luò),TensorFlow的對(duì)函數(shù)自動(dòng)求導(dǎo)以及分布式計(jì)算,可以幫我們節(jié)省很多時(shí)間來(lái)訓(xùn)練模型。解析:[問(wèn)答題]240.在tensorflow中,使用______函數(shù)來(lái)判斷兩個(gè)值是否相等。答案:Tf.equal();解析:[問(wèn)答題]241.編程:實(shí)現(xiàn)線性回歸y=w*x。答案:ImporttensorflowastfImportnumpyasnp#樣本,輸入列表,正太分布(NormalDestribution),均值為1,均方誤差為0.1,數(shù)據(jù)量為100個(gè)X_vals=np.random.normal(1,0.1,100)#樣本輸出列表,100個(gè)值為10.0的列表Y_vals=np.repeat(10.0,100)X_data=tf.placeholder(shape=[1],dtype=tf.float32)Y_target=tf.placeholder(shape=[1],dtype=tf.float32)A=tf.Variable(tf.random_normal(shape=[1]))#我們定義的模型,是一個(gè)線型函數(shù),即y=w*x,也就是my_output=A*x_data#x_data將用樣本x_vals。我們的目標(biāo)是,算出A的值。#其實(shí)已經(jīng)能猜出,y都是10.0的話,x均值為1,那么A應(yīng)該是10。哈哈My_output=tf.multiply(x_data,A)#損失函數(shù),用的是模型算的值,減去實(shí)際值,的平方。y_target就是上面的y_vals。Loss=tf.square(my_output-y_target)Sess=tf.Session()Init=tf.global_variables_initializer()#初始化變量Sess.run(init)#梯度下降算法,學(xué)習(xí)率0.02,可以認(rèn)為每次迭代修改A,修改一次0.02。比如A初始化為20,發(fā)現(xiàn)不好,于是猜測(cè)下一個(gè)A為20-0.02My_opt=tf.train.GradientDescentOptimizer(learning_rate=0.02)Train_step=my_opt.minimize(loss)#目標(biāo),使得損失函數(shù)達(dá)到最小值Foriinrange(100):#0到100,不包括100#隨機(jī)從樣本中取值rand_index=np.random.choice(100)rand_x=[x_vals[rand_index]]rand_y=[y_vals[rand_index]]#損失函數(shù)引用的placeholder(直接或間接用的都算),x_data使用樣本rand_x,y_target用樣本rand_ysess.run(train_step,feed_dict={x_data:rand_x,y_target:rand_y})#打印ifi%5==0:print('step:'+str(i)+'A='+str(sess.run(A)))print('loss:'+str(sess.run(loss,feed_dict={x_data:rand_x,y_target:rand_y})))解析:[問(wèn)答題]242.人工神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)為()。答案:輸入層輸出層隱藏層解析:[問(wèn)答題]243.BatchNorm的思想是調(diào)整各層的激活值分布使其擁有適當(dāng)?shù)腳______答案:廣度解析:[問(wèn)答題]244.最大池化的具體操作是什么?答案:最大池化的具體操作是:整個(gè)圖片被不重疊的分割成若干個(gè)同樣大小的小塊(poolingsize)。每個(gè)小塊內(nèi)只取最大的數(shù)字,再舍棄其他節(jié)點(diǎn)后,保持原有的平面結(jié)構(gòu)得出結(jié)果。解析:[問(wèn)答題]245.為什么用relu就不用sigmoid了?答案:Sigmoid的導(dǎo)數(shù)只有在0的附近時(shí)有比較好的激活性,在正負(fù)飽和區(qū)域的梯度都接近0,會(huì)導(dǎo)致梯度彌散。而relu函數(shù)在大于0的部分梯度為常數(shù),不會(huì)產(chǎn)生梯度彌散現(xiàn)象。Relu函數(shù)在負(fù)半?yún)^(qū)導(dǎo)數(shù)為0,也就是說(shuō)這個(gè)神經(jīng)元不會(huì)經(jīng)歷訓(xùn)練,就是所謂稀疏性。而且relu函數(shù)的導(dǎo)數(shù)計(jì)算的更快。解析:[問(wèn)答題]246.編程:定義getMatrix(x,y)函數(shù)。參數(shù)x是正整數(shù),參數(shù)y是整數(shù)。你需要生成一個(gè)形狀為x*x,初值為y的矩陣。之后將該矩陣的對(duì)角線上的每個(gè)元素加1。再求該矩陣的逆矩陣的行列式,當(dāng)該矩陣沒(méi)有逆矩陣式時(shí),返回0。答案:ImporttensorflowastfDefgetMatrix(x,y):a=tf.fill([x,x],float(y))b=tf.diag(tf.fill([x],1.0))c=tf.ad
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年邵東市中醫(yī)醫(yī)院編外合同制專(zhuān)業(yè)技術(shù)人員招聘38人備考題庫(kù)完整參考答案詳解
- 3D打印輔助食管癌同步放化療靶區(qū)劑量遞增策略
- 洛陽(yáng)市青少年體育訓(xùn)練中心2025年引進(jìn)緊缺人才工作實(shí)施備考題庫(kù)帶答案詳解
- 數(shù)學(xué)對(duì)稱(chēng)圖形在建筑室內(nèi)設(shè)計(jì)中的應(yīng)用分析課題報(bào)告教學(xué)研究課題報(bào)告
- 3D打印與3D可視化在神經(jīng)外科手術(shù)中的聯(lián)合應(yīng)用
- 截圖樣機(jī)圖文排版
- 2025年四川鹽晟國(guó)有資本投資集團(tuán)有限公司關(guān)于公開(kāi)招聘財(cái)務(wù)部副部長(zhǎng)、會(huì)計(jì)備考題庫(kù)含答案詳解
- 高中生通過(guò)地理模型模擬城市內(nèi)澇應(yīng)急疏散路線規(guī)劃課題報(bào)告教學(xué)研究課題報(bào)告
- 2025年古城區(qū)西安街道社區(qū)衛(wèi)生服務(wù)中心人員招聘臨床執(zhí)業(yè)(或助理)醫(yī)師備考題庫(kù)及完整答案詳解一套
- 2025年復(fù)旦大學(xué)未來(lái)備考題庫(kù)創(chuàng)新學(xué)院招聘工程管理教育中心工作人員崗位1名及參考答案詳解一套
- 【MOOC】細(xì)胞生物學(xué)實(shí)驗(yàn)-南京大學(xué) 中國(guó)大學(xué)慕課MOOC答案
- 幼兒園中小學(xué)生元旦假期安全教育課件
- 港區(qū)船塢工程施工組織設(shè)計(jì)
- 東北抗聯(lián)英雄人物智慧樹(shù)知到期末考試答案章節(jié)答案2024年牡丹江師范學(xué)院
- JT-T-1178.2-2019營(yíng)運(yùn)貨車(chē)安全技術(shù)條件第2部分:牽引車(chē)輛與掛車(chē)
- 時(shí)尚流行文化解讀智慧樹(shù)知到期末考試答案章節(jié)答案2024年天津科技大學(xué)
- 齊魯名家 談方論藥智慧樹(shù)知到期末考試答案2024年
- 校園火災(zāi)發(fā)生時(shí)教師如何迅速報(bào)警并組織疏散
- 血尿病人的護(hù)理
- Python數(shù)據(jù)分析與應(yīng)用-從數(shù)據(jù)獲取到可視化(第2版)課件 第8章 文本數(shù)據(jù)分析
- 《數(shù)字經(jīng)濟(jì)學(xué)》教學(xué)大綱
評(píng)論
0/150
提交評(píng)論