大數(shù)據(jù)理論考試(習(xí)題卷7)_第1頁(yè)
大數(shù)據(jù)理論考試(習(xí)題卷7)_第2頁(yè)
大數(shù)據(jù)理論考試(習(xí)題卷7)_第3頁(yè)
大數(shù)據(jù)理論考試(習(xí)題卷7)_第4頁(yè)
大數(shù)據(jù)理論考試(習(xí)題卷7)_第5頁(yè)
已閱讀5頁(yè),還剩23頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:大數(shù)據(jù)理論考試大數(shù)據(jù)理論考試(習(xí)題卷7)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages大數(shù)據(jù)理論考試第1部分:?jiǎn)雾?xiàng)選擇題,共64題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.在Hadoop的分區(qū)階段,默認(rèn)的Partitioner是()。A)RangePartitionerB)PartitionerC)HashPartitionerD)用戶(hù)自定義的Partitioner答案:C解析:Hadoop中默認(rèn)的Partitioner是HashPartitioner。[單選題]2.DIKW金字塔模型中,頂層與底層的名稱(chēng)分別為()。A)智慧與數(shù)據(jù)B)知識(shí)與數(shù)據(jù)C)智慧與數(shù)值D)知識(shí)與數(shù)值答案:A解析:DIKW金字塔(DIKWPyramid)模型揭示了數(shù)據(jù)(Data)與信息(Information)、知識(shí)(Knowledge)、智慧(Wisdom)之間的區(qū)別與聯(lián)系,自底向上分別為數(shù)據(jù)、信息、知識(shí)、智慧。[單選題]3.關(guān)于HDFS的特征,下列說(shuō)法錯(cuò)誤的是()。A)支持超大文件B)基于商用硬件C)流式數(shù)據(jù)訪問(wèn)D)低吞吐量答案:D解析:HDFS設(shè)計(jì)中重視?數(shù)據(jù)的高吞吐量?,因此,其數(shù)據(jù)吞吐量高,但也造成了其數(shù)據(jù)延遲訪問(wèn)的特征。[單選題]4.以下可以應(yīng)用關(guān)鍵詞提取的是()。A)文獻(xiàn)檢索B)自動(dòng)文摘C)文本聚類(lèi)/分類(lèi)D)以上答案都正答案:D解析:在自然語(yǔ)言處理領(lǐng)域,處理海量的文本文件最關(guān)鍵的是要把用戶(hù)最關(guān)心的問(wèn)題提取出來(lái)。[單選題]5.以下關(guān)于Hive說(shuō)法正確的是()。A)一種數(shù)據(jù)倉(cāng)庫(kù)B)一種數(shù)據(jù)處理工具C)一種可視化工具D)一種分析算法答案:A解析:hive是基于Hadoop的一個(gè)數(shù)據(jù)倉(cāng)庫(kù)工具,用來(lái)進(jìn)行數(shù)據(jù)提取、轉(zhuǎn)化、加載,這是一種可以存儲(chǔ)、查詢(xún)和分析存儲(chǔ)在Hadoop中的大規(guī)模數(shù)據(jù)的機(jī)制。[單選題]6.不屬于判別式模型的是()。A)決策樹(shù)B)神經(jīng)網(wǎng)絡(luò)C)支持向量機(jī)D)貝葉答案:D解析:貝葉斯不屬于判別式模型。[單選題]7.下列關(guān)于聚類(lèi)挖掘技術(shù)的說(shuō)法中,錯(cuò)誤的是()。A)不預(yù)先設(shè)定數(shù)據(jù)歸類(lèi)類(lèi)目,完全根據(jù)數(shù)據(jù)本身性質(zhì)將數(shù)據(jù)聚合成不同類(lèi)別B)要求同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小C)要求不同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小D)與分類(lèi)挖掘技術(shù)相似的是,都是要對(duì)數(shù)據(jù)進(jìn)行分類(lèi)處答案:B解析:聚類(lèi)挖掘技術(shù)中要求不同類(lèi)數(shù)據(jù)的內(nèi)容相似度盡可能小。[單選題]8.關(guān)于數(shù)據(jù)創(chuàng)新,下列說(shuō)法正確的是()。A)個(gè)數(shù)據(jù)集的總和價(jià)值等于單個(gè)數(shù)據(jù)集價(jià)值相加B)于數(shù)據(jù)的再利用,數(shù)據(jù)應(yīng)該永久保存下去C)同數(shù)據(jù)多次用于相同或類(lèi)似用途,其有效性會(huì)降低D)數(shù)據(jù)開(kāi)放價(jià)值可以得到真正釋放答案:D解析:略[單選題]9.Adaboost的核心思想是()。A)給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集,將該學(xué)習(xí)算法使用多次,得出預(yù)測(cè)函數(shù)序列,進(jìn)行投票B)針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類(lèi)器集合起來(lái),構(gòu)成一個(gè)強(qiáng)分類(lèi)器C)利用多棵樹(shù)對(duì)樣本進(jìn)行訓(xùn)練并預(yù)測(cè)的一種分類(lèi)器D)基于前向策略的加法模型,每階段使用一個(gè)基模型去擬合上一階段基模型的殘差答案:B解析:Adaboost的核心思想是給定一個(gè)弱學(xué)習(xí)算法和一個(gè)訓(xùn)練集,將該學(xué)習(xí)算法使用多次,得出預(yù)測(cè)函數(shù)序列,進(jìn)行投票。[單選題]10.@app.route的作用為()。A)程序代碼的規(guī)范,沒(méi)什么作用B)類(lèi)似裝飾器,返回本地網(wǎng)絡(luò)測(cè)試地址C)返回127005000D)以上答案都不正確答案:B解析:@app.route是flask裝飾器,調(diào)用后返回返回本地網(wǎng)絡(luò)測(cè)試地址。[單選題]11.以下哪種參數(shù)須以正確的順序傳入函數(shù),調(diào)用時(shí)的數(shù)量必須和聲明時(shí)的一樣()。A)位置參數(shù)B)默認(rèn)值參數(shù)C)可變參數(shù)D)關(guān)鍵字參數(shù)答案:A解析:位置參數(shù)須以正確的順序傳入函數(shù),調(diào)用時(shí)的數(shù)量必須和聲明時(shí)的一樣。[單選題]12.當(dāng)需要在字符串中使用特殊字符時(shí),python使用()作為轉(zhuǎn)義字符。A)\B)/C)#D)%答案:A解析:轉(zhuǎn)義字符為反斜線\。[單選題]13.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到localminimum,下面不屬于解決localminimum問(wèn)題的方法是()A)隨機(jī)梯度下降B)設(shè)置MomentumC)設(shè)置不同初始值D)增大batchsiz答案:D解析:增大batchsize無(wú)法無(wú)法解決ocalminimum問(wèn)題。[單選題]14.以下關(guān)于降維,表述錯(cuò)誤的是:()。A)降維過(guò)程中可以保留原始數(shù)據(jù)的所有信息B)多維縮放的目標(biāo)是要保證降維后樣本之間的距離不變C)線性降維方法目標(biāo)是要保證降維到的超平面能更好的表示原始數(shù)據(jù)D)核線性降維方法目標(biāo)是通過(guò)核函數(shù)和核方法來(lái)避免采樣空間投影到高維空間再降維之后的低維結(jié)構(gòu)丟答案:A解析:降維過(guò)程中盡量保留原始數(shù)據(jù)的信息,但不能保留原始數(shù)據(jù)的全部信息。[單選題]15.下列關(guān)于大數(shù)據(jù)的分析理念的說(shuō)法中,錯(cuò)誤的是()。A)在數(shù)據(jù)基礎(chǔ)上傾向于全體數(shù)據(jù)而不是抽樣數(shù)據(jù)B)在分析方法上更注重相關(guān)分析而不是因果分析C)在分析效果上更追求效率而不是絕對(duì)精確D)在數(shù)據(jù)規(guī)模上強(qiáng)調(diào)相對(duì)數(shù)據(jù)而不是絕對(duì)數(shù)據(jù)答案:D解析:在大數(shù)據(jù)的分析理念中,數(shù)據(jù)規(guī)模上強(qiáng)調(diào)絕對(duì)數(shù)據(jù)而不是相對(duì)數(shù)據(jù)。[單選題]16.下列關(guān)于計(jì)算機(jī)存儲(chǔ)容量單位的說(shuō)法中,錯(cuò)誤的是()。A)1KBB)基本單位是字節(jié)(te)C)一個(gè)漢字需要一個(gè)字節(jié)的存儲(chǔ)空間D)一個(gè)字節(jié)能夠容納一個(gè)英文字答案:C解析:通常,一個(gè)漢字需要兩個(gè)字節(jié)的存儲(chǔ)空間[單選題]17.現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類(lèi)型不包括()。A)數(shù)據(jù)源與APPB)基礎(chǔ)設(shè)施C)HadoopD)數(shù)據(jù)資源答案:C解析:Speechpad的聯(lián)合創(chuàng)始人DaveFeinleib于2012年發(fā)布大數(shù)據(jù)產(chǎn)業(yè)全景圖(BigDataLandscape),首次較為全面地刻畫(huà)了當(dāng)時(shí)快速發(fā)展中的大數(shù)據(jù)技術(shù)體系。后來(lái),該圖及其畫(huà)法成為大數(shù)據(jù)和數(shù)據(jù)科學(xué)的重要分析工具,得到廣泛的應(yīng)用和不斷的更新。MattTurck等組織繪制的2017大數(shù)據(jù)產(chǎn)業(yè)全景圖(BigDataLandscape2017)。從2017大數(shù)據(jù)產(chǎn)業(yè)全景圖看,現(xiàn)階段的大數(shù)據(jù)技術(shù)體系主要類(lèi)型包括:數(shù)據(jù)資源、數(shù)據(jù)源與APP、開(kāi)源工具、跨平臺(tái)基礎(chǔ)設(shè)施和分析工具、行業(yè)應(yīng)用、企業(yè)應(yīng)用、基礎(chǔ)設(shè)施和分析工具。[單選題]18.Maxcompute表T中某列C的數(shù)據(jù)類(lèi)型為bigint,需要修改為double,以下()方式可以實(shí)現(xiàn)。A)將表T刪掉重建B)ALTERTABLETCOLUMNCRENAMETOCDOUBLEC)ALTERTABLETDROPCOLUMNC;ALTERTABLETADDCDOUBLED)ALTERTABLETCHANGECOLUMNSCBIGINT答案:A解析:[單選題]19.事務(wù)對(duì)數(shù)據(jù)對(duì)象加鎖后擁有何種控制權(quán)是由封鎖的()決定的。A)狀態(tài)B)類(lèi)型C)數(shù)量D)屬性答案:B解析:在2PL中,鎖的類(lèi)型分為排他鎖和共享鎖等。[單選題]20.自然語(yǔ)言理解是人工智能的重要應(yīng)用領(lǐng)域,下面列舉中的()不是它要實(shí)現(xiàn)的目標(biāo)。A)理解別人講的話B)對(duì)自然語(yǔ)言表示的信息進(jìn)行分析概括或編輯C)欣賞音樂(lè)D)機(jī)器翻答案:C解析:自然語(yǔ)言理解應(yīng)用主要包含理解自然語(yǔ)言,包括機(jī)器翻譯以及對(duì)文本信息概括歸納等。[單選題]21.如果我使用數(shù)據(jù)集的全部特征并且能夠達(dá)到100%的準(zhǔn)確率,但在測(cè)試集上僅能達(dá)到70%左右,這說(shuō)明:()。A)欠擬合B)模型很棒C)過(guò)擬合D)以上答案都不正確答案:C解析:當(dāng)學(xué)習(xí)器把訓(xùn)練樣本學(xué)得太好了的時(shí)候,很可能巳經(jīng)把訓(xùn)練樣本自身的一些特點(diǎn)當(dāng)作了所有潛在樣本都會(huì)具有的一般性質(zhì),這樣就會(huì)導(dǎo)致泛化性能下降這種現(xiàn)象在機(jī)器學(xué)習(xí)中稱(chēng)為過(guò)擬合。[單選題]22.SPARK默認(rèn)的存儲(chǔ)級(jí)別A)MEMORY_ONLYB)MEMORY_ONLY_SERC)MEMORY_AND_DISKD)MEMORY_AND_DISK_SE答案:A解析:[單選題]23.Hadoop中partition()函數(shù)描述正確的是()。A)分區(qū)函數(shù)B)特征函數(shù)C)算法函數(shù)D)排序函數(shù)答案:A解析:partition代表分區(qū)函數(shù),其他選項(xiàng)都不符合題意。[單選題]24.為了觀察測(cè)試Y與X之間的線性關(guān)系,X是連續(xù)變量,使用下列()比較適合。A)散點(diǎn)圖B)柱形圖C)直方圖D)以上答案都不正答案:A解析:散點(diǎn)圖反映了兩個(gè)變量之間的相互關(guān)系,在測(cè)試Y與X之間的線性關(guān)系時(shí),使用散點(diǎn)圖最為直觀。[單選題]25.客戶(hù)端從HDFS上讀取數(shù)據(jù)時(shí)會(huì)()A)從namenode上獲取數(shù)據(jù)B)從datanode上獲取block位置C)從namenode上獲取block位置D)從namenode上獲取數(shù)據(jù)和block位置答案:C解析:namenode保存數(shù)據(jù)block的位置,datanode保存數(shù)據(jù)。[單選題]26.參數(shù)估計(jì)又可分為()和區(qū)間估計(jì)。A)線型估計(jì)B)點(diǎn)估計(jì)C)回歸估計(jì)D)二維分答案:B解析:參數(shù)估計(jì)是根據(jù)從總體中抽取的隨機(jī)樣本來(lái)估計(jì)總體分布中未知參數(shù)的過(guò)程。從估計(jì)形式看,區(qū)分為點(diǎn)估計(jì)與區(qū)間估計(jì)。[單選題]27.隨著集成中個(gè)體分類(lèi)器(相互獨(dú)立)數(shù)目T的增大,集成的錯(cuò)誤率將呈()下降,最終趨向于零。A)指數(shù)級(jí)B)對(duì)數(shù)級(jí)C)線性級(jí)D)平方答案:C解析:隨著集成中個(gè)體分類(lèi)器數(shù)目T的增大,集成的錯(cuò)誤率將指數(shù)級(jí)下降,最終趨向于零。[單選題]28.DWS集群要求最少幾個(gè)數(shù)據(jù)節(jié)點(diǎn)A)1個(gè)B)3個(gè)C)5個(gè)D)9答案:B解析:[單選題]29.一幅512*512的圖像,若灰度級(jí)數(shù)為16,則該圖像大小為()。A)32KBB)128KBC)1MBD)2M答案:B解析:512*512表示像素個(gè)數(shù),16級(jí)灰度用二進(jìn)制表示需要4位,故存儲(chǔ)圖像所需的二進(jìn)制位數(shù)為:512*512*4,即1024Kbit,所需字節(jié)數(shù)除以8為128KB,注意單位的不同。[單選題]30.以下選項(xiàng)中說(shuō)法不正確的是()。A)解釋是將源代碼逐條轉(zhuǎn)換成目標(biāo)代碼同時(shí)逐條運(yùn)行目標(biāo)代碼的過(guò)程B)編譯是將源代碼轉(zhuǎn)換成目標(biāo)代碼的過(guò)程C)C語(yǔ)言是靜態(tài)語(yǔ)言,Python語(yǔ)言是腳本語(yǔ)言D)靜態(tài)語(yǔ)言采用解釋方式執(zhí)行,腳本語(yǔ)言采用編譯方式執(zhí)行答案:D解析:Python作為腳本語(yǔ)言,采用解釋方式逐條執(zhí)行代碼。[單選題]31.2003年,Tableau在斯坦福大學(xué)誕生,它起源于一種改變數(shù)據(jù)使用方式的新技術(shù)()。A)VizQL語(yǔ)言B)SQL語(yǔ)言C)XSQL語(yǔ)言D)NewSQL語(yǔ)言答案:A解析:VizQL是一種可視化查詢(xún)語(yǔ)言,可將拖放動(dòng)作轉(zhuǎn)化為數(shù)據(jù)查詢(xún),然后以可視化的形式表達(dá)數(shù)據(jù),是Tableau的起源。[單選題]32.開(kāi)發(fā)Maxcompute的用戶(hù)自定義標(biāo)量函數(shù),主要是實(shí)現(xiàn)其中的()方法。A)evaluateB)mainC)iterateD)process答案:A解析:[單選題]33.以下說(shuō)法錯(cuò)誤的是:(__)。A)當(dāng)目標(biāo)函數(shù)是凸函數(shù)時(shí),梯度下降的解時(shí)全局最優(yōu)解B)進(jìn)行PCA降維時(shí)需要計(jì)算協(xié)方差矩陣C)沿負(fù)梯度下降的方向一定是最優(yōu)的方向D)利用拉格朗日函數(shù)能解帶約束的優(yōu)化問(wèn)答案:C解析:梯度下降法并不是下降最快的方向,它只是目標(biāo)函數(shù)在當(dāng)前的點(diǎn)的切平面上下降最快的方向,可以說(shuō)負(fù)梯度下降的方向一定是局部最優(yōu)的方向。[單選題]34.假如我們使用非線性可分的SVM目標(biāo)函數(shù)作為最優(yōu)化對(duì)象,我們?cè)趺幢WC模型線性可分()。A)設(shè)C=1B)設(shè)C=0C)設(shè)無(wú)窮大D)以上答案都不正答案:C解析:C無(wú)窮大保證了所有的線性不可分都是可以忍受的。[單選題]35.在python中可以通過(guò)調(diào)用random庫(kù)來(lái)產(chǎn)生隨機(jī)數(shù)。a=random.randint(1,99),并賦值給變量a。A)隨機(jī)產(chǎn)生一個(gè)1~99的小數(shù);B)隨機(jī)產(chǎn)生一個(gè)1~99的整數(shù);C)產(chǎn)生一個(gè)值為99的整數(shù);D)隨機(jī)產(chǎn)生一個(gè)1~99的無(wú)理數(shù);答案:B解析:randint()函數(shù)用來(lái)生成閉區(qū)間的整數(shù)。[單選題]36.在MapReduce中,哪個(gè)組件是用戶(hù)不指定也不會(huì)有默認(rèn)的()A)CombinerB)OutputFormatC)PartitionerD)InputFormat答案:A解析:在MapReduce編程模型中,Combiner是可有可無(wú)的組件,它的作用就是用來(lái)給mapTask的結(jié)果數(shù)據(jù)做局部合并以減少reduceTask接收的數(shù)據(jù)量,以減少網(wǎng)絡(luò)數(shù)據(jù)傳輸;OutputFormat的默認(rèn)組件是TextOutputFormat;InputFormat的默認(rèn)組件是TextInputFormat;Partitioner的默認(rèn)實(shí)現(xiàn)是HashPartitioner。[單選題]37.正態(tài)分布的兩個(gè)參數(shù)μ與σ,()對(duì)應(yīng)的正態(tài)曲線愈趨扁平。A)μ愈大B)μ愈小C)σ愈大D)σ愈小答案:C解析:σ描述正態(tài)分布資料數(shù)據(jù)分布的離散程度,σ越大,數(shù)據(jù)分布越分散,σ越小,數(shù)據(jù)分布越集中。也稱(chēng)為是正態(tài)分布的形狀參數(shù),σ越大,曲線越扁平,反之,σ越小,曲線越瘦高。第5章數(shù)據(jù)可視化(共20題)[單選題]38.以下哪種方法不屬于特征選擇的標(biāo)準(zhǔn)方法:()。A)嵌入B)過(guò)濾C)包裝D)抽樣答案:D解析:特征選擇的三種方法分別是過(guò)濾式(filter)、包裹式(wrapper)和嵌入式(embedded)。[單選題]39.geoplotlib是一個(gè)用于制作()相關(guān)數(shù)據(jù)的工具箱。A)物理B)地圖和地理C)生物D)化學(xué)答案:B解析:geoplotlib是一個(gè)用于制作地圖和地理相關(guān)數(shù)據(jù)的工具箱,比如等值區(qū)域圖,熱度圖,點(diǎn)密度圖。多選題(共6題)[單選題]40.運(yùn)行下面的代碼,輸出結(jié)果是()。D={-2,-1,0,1,2,3}N=d\pop()Print(n)A)-2B)2C)不確定D)3答案:C解析:集合中元素是無(wú)序的。[單選題]41.關(guān)于列表的說(shuō)法,描述有錯(cuò)誤的是()。A)list是一個(gè)有序集合,沒(méi)有固定大小B)list可以存放任意類(lèi)型的元素C)使用list時(shí),其下標(biāo)可以是負(fù)數(shù)D)list是不可變的數(shù)據(jù)類(lèi)型答案:D解析:[單選題]42.()是一個(gè)觀測(cè)值,它與其它觀測(cè)值的差別如此之大,以至于懷疑它是由不同的機(jī)制產(chǎn)生的。A)邊界點(diǎn)B)質(zhì)心C)離群點(diǎn)D)核心點(diǎn)答案:C解析:離群點(diǎn)(outlier)是指數(shù)值中,遠(yuǎn)離數(shù)值的一般水平的極端大值和極端小值。[單選題]43.按照姓名降序排列()A)ORDERBYDESCNAMEB)ORDERBYNAMEDESCC)ORDERBYNAMEASCD)ORDERBYASCNAM答案:B解析:[單選題]44.關(guān)于情感分析描述正確的是()。A)情感分析的難點(diǎn)是語(yǔ)句太長(zhǎng)導(dǎo)致精度降低B)為了降低復(fù)雜度,循環(huán)神經(jīng)網(wǎng)絡(luò)無(wú)需添加LSTM結(jié)構(gòu)C)對(duì)文本進(jìn)行停用詞處理不可以提高情感分析的計(jì)算精度D)對(duì)文本進(jìn)行無(wú)關(guān)詞處理不可以提高情感分析的計(jì)算精答案:A解析:文本處理基礎(chǔ)知識(shí)[單選題]45.下面哪個(gè)色彩空間最接近人的視覺(jué)系統(tǒng)的特點(diǎn)()。A)RGB空間B)CMY空間C)YK空間D)HSI空答案:D解析:HSI反映了人的視覺(jué)系統(tǒng)感知彩色的方式,以色調(diào)、飽和度和亮度三種基本特征量來(lái)感知顏色,最接近人的視覺(jué)系統(tǒng)特征。[單選題]46.關(guān)于MapReduce的描述錯(cuò)誤的是()A)MapReduce框架由一個(gè)單獨(dú)的masterJobTracker和每個(gè)集群設(shè)備一個(gè)slaveTaskTracker共同組成B)master負(fù)責(zé)調(diào)度構(gòu)成一個(gè)作業(yè)的所有任務(wù),這些任務(wù)分布在不同的slave上C)master監(jiān)控slave上任務(wù)的執(zhí)行,重新執(zhí)行已經(jīng)失敗的任務(wù)。而slave僅負(fù)責(zé)執(zhí)行由master指派的任務(wù)D)slave不僅負(fù)責(zé)執(zhí)行由master指派的任務(wù),還會(huì)重新執(zhí)行失敗的任答案:D解析:[單選題]47.在大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)的數(shù)據(jù)倉(cāng)庫(kù)中的訂單表fact_order,建表語(yǔ)句如下:createtablefact_order(order_iD、string,order_amtdouble,order_dtstring)paititioneD、by(dtstring);此表中的數(shù)據(jù)是從ods_order加工而來(lái),ods_order建表語(yǔ)句如下:createtableods_order(order_iD、string.order_amtbigint,order_dtstring);ods_order中有一條記錄數(shù)據(jù)值是order_iD、order_amtorder_dt000110020160301運(yùn)行SQL語(yǔ)句將數(shù)據(jù)從ods_order加載到fact_order中:insertoverwritetablefact_orderpartition(dt=?20160301?)select*fromods_order;對(duì)此語(yǔ)句的執(zhí)行結(jié)果描述正確的是:()。A)語(yǔ)句可以執(zhí)行,但是這條數(shù)據(jù)會(huì)被當(dāng)作臟數(shù)據(jù)丟棄B)目標(biāo)表與源表中的數(shù)據(jù)類(lèi)型不一致,執(zhí)行出錯(cuò)C)提交SQL時(shí)會(huì)報(bào)語(yǔ)法錯(cuò)誤D)語(yǔ)句可以執(zhí)行,order_amt的值會(huì)被自動(dòng)的轉(zhuǎn)為double類(lèi)型答案:D解析:[單選題]48.生產(chǎn)者通過(guò)()將對(duì)象轉(zhuǎn)換成字節(jié)數(shù)組發(fā)送給Kafka。A)攔截器B)序列化器C)分區(qū)器D)反序列化答案:B解析:[單選題]49.如果使用線性回歸模型,下列說(shuō)法正確的是()A)檢查異常值是很重要的,因?yàn)榫€性回歸對(duì)離群效應(yīng)很敏感B)線性回歸分析要求所有變量特征都必須具有正態(tài)分布C)線性回歸假設(shè)數(shù)據(jù)中基本沒(méi)有多重共線性D)以上說(shuō)法都不對(duì)答案:A解析:異常值是數(shù)據(jù)中的一個(gè)非常有影響的點(diǎn),它可以改變最終回歸線的斜率。因此,去除或處理異常值在回歸分析中是很重要的。了解變量特征的分布是有用的,類(lèi)似于正態(tài)分布的變量特征對(duì)提升模型性能很有幫助,數(shù)據(jù)預(yù)處理的時(shí)候經(jīng)常做的一件事就是將數(shù)據(jù)特征歸一化到(0,1)分布,但不是必須的。當(dāng)模型包含相互關(guān)聯(lián)的多個(gè)特征時(shí),會(huì)發(fā)生多重共線性。因此,線性回歸中變量特征應(yīng)該盡量減少冗余性。[單選題]50.Python代碼中mpl.rcParams['font.sans-serif']=['SimHei']的作用是()。A)設(shè)置圖表中文顯示的字體B)設(shè)置圖表圖例的位置C)設(shè)置圖表標(biāo)題的顏色D)設(shè)置圖表標(biāo)題的位置答案:A解析:設(shè)置圖表字體以正確顯示中文。[單選題]51.使用似然函數(shù)的目的是()。A)求解目標(biāo)函數(shù)B)得到最優(yōu)數(shù)據(jù)樣本C)找到最適合數(shù)據(jù)的參數(shù)D)改變目標(biāo)函數(shù)分答案:C解析:似然估計(jì)是一種確定模型參數(shù)值的方法。確定參數(shù)值的過(guò)程,是找到能最大化模型產(chǎn)生真實(shí)觀察數(shù)據(jù)可能性的那一組參數(shù)。[單選題]52.常用的數(shù)據(jù)歸約方法可以分為()。A)維歸約數(shù)據(jù)壓縮B)維歸約參數(shù)歸約C)維歸約值歸約D)數(shù)據(jù)壓縮值歸約答案:C解析:常用的數(shù)據(jù)歸約方法有兩種:維歸約和值歸約。[單選題]53.隨機(jī)森林與Bagging中基學(xué)習(xí)器多樣性的區(qū)別是()。A)都來(lái)自樣本擾動(dòng)B)都來(lái)自屬性擾動(dòng)C)來(lái)自樣本擾動(dòng)和自屬性擾動(dòng)D)多樣本集結(jié)答案:C解析:Bagging中基學(xué)習(xí)器的多樣性?xún)H來(lái)自于樣本擾動(dòng)(自助采樣),隨機(jī)森林中基學(xué)習(xí)器的多樣性不僅來(lái)自樣本擾動(dòng),還來(lái)自屬性擾動(dòng)。[單選題]54.考慮值集{12243324556826},其四分位數(shù)極差是:()A)21B)24C)55D)3答案:A解析:四分位差,也稱(chēng)為內(nèi)距或四分間距,它是上四分位數(shù)(QU,即位于75%)與下四分位數(shù)(QL,即位于25%)的差。計(jì)算公式為:QD=QU-QL。將數(shù)據(jù)從小到大排序,可得到QU=33,QL=12,因此QD=QU-QL=21[單選題]55.select語(yǔ)句的執(zhí)行過(guò)程是從數(shù)據(jù)庫(kù)中選取匹配的特定記錄和字段,并將這些數(shù)據(jù)組織成一個(gè)結(jié)果集,然后以()的形式返回。A)結(jié)構(gòu)體數(shù)組B)系統(tǒng)表C)永久表D)臨時(shí)答案:D解析:[單選題]56.在DAYU數(shù)據(jù)集成中,新建?表/文件遷移作業(yè)?作業(yè)第一步不需要填寫(xiě)的信息是A)字段名稱(chēng)B)目的連接名稱(chēng)C)原鏈接名稱(chēng)D)作業(yè)名答案:A解析:[單選題]57.關(guān)于Python布爾值,下列選項(xiàng)描述正確的是()。A)整型的0不可以表示FalseB)浮點(diǎn)型的0不可以表示FalseC)0+0j可以表示FalseD)布爾值不可以進(jìn)行算術(shù)運(yùn)算答案:C解析:整型、浮點(diǎn)型0均可表示False,布爾值可參加運(yùn)算。[單選題]58.數(shù)據(jù)管理成熟度模型中成熟度等級(jí)最高是哪一級(jí)()。A)已優(yōu)化級(jí)B)已測(cè)量級(jí)C)已定義級(jí)D)已管理級(jí)答案:A解析:已優(yōu)化是數(shù)據(jù)管理成熟度模型中成熟度的最高等級(jí)。[單選題]59.假負(fù)率是指()。A)正樣本預(yù)測(cè)結(jié)果數(shù)/正樣本實(shí)際數(shù)B)被預(yù)測(cè)為負(fù)的正樣本結(jié)果數(shù)/正樣本實(shí)際數(shù)C)被預(yù)測(cè)為正的負(fù)樣本結(jié)果數(shù)/負(fù)樣本實(shí)際數(shù)D)負(fù)樣本預(yù)測(cè)結(jié)果數(shù)/負(fù)樣本實(shí)際答案:B解析:假負(fù)率是指被預(yù)測(cè)為負(fù)的正樣本結(jié)果數(shù)/正樣本實(shí)際數(shù)。[單選題]60.使用MaxcomputeSQL:createtablet1liket2;建表時(shí),表t1不會(huì)具有表t2的()屬性。A)分區(qū)B)生命周期C)二級(jí)分區(qū)D)字段的注釋答案:B解析:[單選題]61.RDD中的數(shù)據(jù)被()在集群中,使得任務(wù)可以并行執(zhí)行。A)順序存儲(chǔ);B)連續(xù)存儲(chǔ);C)分塊存儲(chǔ);D)分區(qū)存儲(chǔ);答案:D解析:RDD為分區(qū)存儲(chǔ)。[單選題]62.緩解過(guò)擬合的一個(gè)辦法是允許支持向量機(jī)在一些樣本上出錯(cuò),以下哪種形式適合這種方法()。A)硬間隔支持向量機(jī)B)軟間隔支持向量機(jī)C)線性核函數(shù)支持向量機(jī)D)多項(xiàng)式核函數(shù)支持向量機(jī)答案:B解析:軟間隔允許某些樣本不滿足約束,可緩解過(guò)擬合。[單選題]63.在方差分析中,()反映的是樣本數(shù)據(jù)與其組平均值的差異。A)總離差B)組間誤差C)抽樣誤差D)組內(nèi)誤差答案:D解析:組內(nèi)誤差是來(lái)自樣本內(nèi)部數(shù)據(jù)之間的隨機(jī)誤差,它反映了樣本數(shù)據(jù)自身的差異程度;組間誤差由因子的不同處理造成的處理誤差和抽樣的隨機(jī)誤差組成,反映了不同樣本之間數(shù)據(jù)的差異程度。[單選題]64.大數(shù)據(jù)平臺(tái)構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉(cāng)庫(kù)、非關(guān)系型數(shù)據(jù)庫(kù)、關(guān)系型數(shù)據(jù)庫(kù),實(shí)現(xiàn)各類(lèi)數(shù)據(jù)的集中存儲(chǔ)與統(tǒng)一管理,滿足()存儲(chǔ)需求。A)歷史數(shù)據(jù)B)離線數(shù)據(jù)C)實(shí)時(shí)數(shù)據(jù)D)多樣化數(shù)據(jù)答案:D解析:大數(shù)據(jù)平臺(tái)構(gòu)建分布式文件系統(tǒng)、分布式數(shù)據(jù)倉(cāng)庫(kù)、非關(guān)系型數(shù)據(jù)庫(kù)、關(guān)系型數(shù)據(jù)庫(kù),實(shí)現(xiàn)各類(lèi)數(shù)據(jù)的集中存儲(chǔ)與統(tǒng)一管理,滿足多樣化數(shù)據(jù)存儲(chǔ)需求。第2部分:多項(xiàng)選擇題,共22題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]65.以下關(guān)于Pig說(shuō)法正確的是()。A)彌補(bǔ)MapReduce編程復(fù)雜性B)封裝MapReduce處理過(guò)程C)PigLatin是一種數(shù)據(jù)分析語(yǔ)言D)適用于并行處答案:ABCD解析:Pig建立在MapReduce之上,主要目的是彌補(bǔ)MapReduce編程的復(fù)雜性;Pig較好地封裝了MapReduce的處理過(guò)程;PigLatin是數(shù)據(jù)分析的描述語(yǔ)言;Pig程序的結(jié)構(gòu)適合于并行處理。[多選題]66.相對(duì)于HadoopMapReduce,Spark有什么好處()。A)通用性;B)易用性;C)速度快;D)容錯(cuò)性;答案:ABC解析:相對(duì)于HadoopMapReduce,Spark的特點(diǎn)包括速度快、通用性和易用性。[多選題]67.特征向量的歸一化方法有哪些()A)線性函數(shù)轉(zhuǎn)換B)對(duì)數(shù)函數(shù)轉(zhuǎn)換C)反余切函數(shù)轉(zhuǎn)換D)減去均值,除以方差答案:ABCD解析:特征向量的歸一化方法包括:線性函數(shù)轉(zhuǎn)換、對(duì)數(shù)函數(shù)轉(zhuǎn)換、反余切函數(shù)轉(zhuǎn)換、減去均值,除以方差等。[多選題]68.以下屬于頻率域圖像濾波的方法有()。A)中值濾波B)均值濾波C)布特沃斯濾波D)高斯濾答案:CD解析:頻率域圖像濾波包括理想低通濾波器、布特沃斯低通濾波器、高斯低通濾波器、梯形低通濾波器。中值濾波和均值濾波屬于空間濾波。[多選題]69.大數(shù)據(jù)計(jì)算服務(wù)(MaxCompute,原ODPS)中,使用CREATETABLELIKE語(yǔ)句創(chuàng)建新表時(shí),原表的()屬性會(huì)被復(fù)制到新表上。A)列注釋B)分區(qū)C)表的生命周期屬性D)表注釋答案:ABD解析:[多選題]70.以下對(duì)模型性能提高有幫助的是()。A)數(shù)據(jù)預(yù)處理B)特征工程C)機(jī)器學(xué)習(xí)算法D)模型集答案:ABCD解析:數(shù)據(jù)預(yù)處理,特征工程,機(jī)器學(xué)習(xí)算法,模型集成均可提高模型性能。[多選題]71.如何在監(jiān)督式學(xué)習(xí)中使用聚類(lèi)算法()A)首先,可以創(chuàng)建聚類(lèi),然后分別在不同的集群上應(yīng)用監(jiān)督式學(xué)習(xí)算法B)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,可以將其類(lèi)別ID作為特征空間中的一個(gè)額外的特征C)在應(yīng)用監(jiān)督式學(xué)習(xí)之前,不能創(chuàng)建聚類(lèi)D)在應(yīng)用監(jiān)督式學(xué)習(xí)算法之前,不能將其類(lèi)別I作為特征空間中的一個(gè)額外的特答案:AB解析:我們可以為不同的集群構(gòu)建獨(dú)立的機(jī)器學(xué)習(xí)模型,并且可以提高預(yù)測(cè)精度。將每個(gè)類(lèi)別的ID作為特征空間中的一個(gè)額外的特征可能會(huì)提高的精度結(jié)果。[多選題]72.以下哪些選項(xiàng)是Kafka的特點(diǎn)?A)支持消息隨機(jī)讀取B)高吞吐C)分布式D)消息持久答案:BCD解析:[多選題]73.卷積神經(jīng)網(wǎng)絡(luò)通過(guò)哪些措施來(lái)保證圖像對(duì)位移、縮放、扭曲的魯棒性(__)。A)局部感受野B)共享權(quán)值C)池采樣D)正則答案:ABC解析:正則化是為了減少泛化誤差。[多選題]74.數(shù)據(jù)挖掘的主要功能包括概念描述、趨勢(shì)分析、孤立點(diǎn)分析及()等方面。A)挖掘頻繁模式B)分類(lèi)和預(yù)測(cè)C)機(jī)器學(xué)習(xí)分析D)偏差分答案:ABCD解析:數(shù)據(jù)挖掘的主要功能包括概念描述、關(guān)聯(lián)分析、分類(lèi)與預(yù)測(cè)、聚類(lèi)分析、趨勢(shì)分析、孤立點(diǎn)分析以及偏差分析等。[多選題]75.從Hadoop實(shí)現(xiàn)角度看,HadoopMapReduce1.0主要由()組成。A)編程模型B)數(shù)據(jù)處理引擎C)運(yùn)行時(shí)環(huán)境D)算法答案:ABC解析:HadoopMapReduce1.0計(jì)算框架主要由編程模型、數(shù)據(jù)處理引擎和運(yùn)行時(shí)環(huán)境組成。[多選題]76.與自然語(yǔ)言處理相關(guān)的工具包Jieba,Gensim,NLTK,Scikit-Learn的區(qū)別是()。A)Jieba專(zhuān)注于中文分詞操作B)NLTK主要用于一般自然語(yǔ)言處理任務(wù)(標(biāo)記化,POS標(biāo)記,解析等)C)Gensim主要用于題和向量空間建模、文檔集合相似性等D)Scikit-learn為機(jī)器學(xué)習(xí)提供了一個(gè)大型庫(kù),其中包含了用于文本預(yù)處理的工具,例如詞頻-逆文檔頻率特征提取(TfidfVectorizer)等。答案:ABCD解析:題中列出了自然語(yǔ)言處理工具包的特點(diǎn)和區(qū)別,四個(gè)選項(xiàng)均正確。[多選題]77.以下屬于規(guī)則的分詞方法的是()。A)正向最大匹配法B)逆向最大匹配法C)雙向最大匹配法D)條件隨機(jī)答案:ABC解析:條件隨機(jī)場(chǎng)是一種鑒別式機(jī)率模型,常用于標(biāo)注或分析序列資料。[多選題]78.關(guān)于學(xué)習(xí)器結(jié)合的描述正確的選項(xiàng)是()。A)避免單學(xué)習(xí)器可能因誤選而導(dǎo)致泛化性能不佳B)降低陷入局部極小點(diǎn)的風(fēng)險(xiǎn)C)假設(shè)空間擴(kuò)大,有可能學(xué)得更好的近似D)多學(xué)習(xí)器結(jié)合有可能沖答案:ABC解析:學(xué)習(xí)器結(jié)合可能會(huì)從三個(gè)方面帶來(lái)好處:首先,從統(tǒng)計(jì)的方面來(lái)看,由于學(xué)習(xí)任務(wù)的假設(shè)空間往往很大,可能有多個(gè)假設(shè)在訓(xùn)練集上達(dá)到同等性能,此時(shí)若使用單學(xué)習(xí)器可能因誤選而導(dǎo)致泛化性能不佳,結(jié)合多個(gè)學(xué)習(xí)器則會(huì)減小這一風(fēng)險(xiǎn)?第二,從計(jì)算的方面來(lái)看,學(xué)習(xí)算法往往會(huì)陷入局部極小?有的局部極小點(diǎn)所對(duì)應(yīng)的泛化性能可能很糟糕,而通過(guò)多次運(yùn)行之后進(jìn)行結(jié)合,可降低陷入糟糕局部極小點(diǎn)的風(fēng)險(xiǎn),第三,從表示的方面來(lái)看,某些學(xué)習(xí)任務(wù)的真實(shí)假設(shè)可能不在當(dāng)前學(xué)習(xí)算法所考慮的假設(shè)空間中,此時(shí)若使用單學(xué)習(xí)器則肯定無(wú)效,而通過(guò)結(jié)合多個(gè)學(xué)習(xí)器,由于相應(yīng)的假設(shè)空間有所擴(kuò)大,有可能學(xué)得更好的近似。[多選題]79.關(guān)于Dropout說(shuō)法正確的是:(__)。A)Dropout背后的思想其實(shí)就是把DNN當(dāng)做一個(gè)集成模型來(lái)訓(xùn)練,之后取所有值的平均值,而不只是訓(xùn)練單個(gè)DNNB)DNN網(wǎng)絡(luò)將Dropout率設(shè)置為p,也就是說(shuō),一個(gè)神經(jīng)元被保留的概率是1-p。當(dāng)一個(gè)神經(jīng)元被丟棄時(shí),無(wú)論輸入或者相關(guān)的參數(shù)是什么,它的輸出值就會(huì)被設(shè)置為0C)丟棄的神經(jīng)元在訓(xùn)練階段,對(duì)BP算法的前向和后向階段都沒(méi)有貢獻(xiàn)。因?yàn)檫@個(gè)原因,所以每一次訓(xùn)練,它都像是在訓(xùn)練一個(gè)新的網(wǎng)絡(luò)D)opout方法通常和L2正則化或者其他參數(shù)約束技術(shù)(比如MaxNorm)一起使用,來(lái)防止神經(jīng)網(wǎng)絡(luò)的過(guò)擬答案:ABCD解析:dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過(guò)程中,對(duì)于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時(shí)從網(wǎng)絡(luò)中丟棄。注意是暫時(shí),對(duì)于隨機(jī)梯度下降來(lái)說(shuō),由于是隨機(jī)丟棄,故而每一個(gè)mini-batch都在訓(xùn)練不同的網(wǎng)絡(luò)。防止過(guò)擬合的方法:提前終止(當(dāng)驗(yàn)證集上的效果變差的時(shí)候);L1和L2正則化加權(quán);softweightsharingdropout。ropout率的選擇:經(jīng)過(guò)交叉驗(yàn)證,隱含節(jié)點(diǎn)dropout率等于0.5的時(shí)候效果最好,原因是0.5的時(shí)候dropout隨機(jī)生成的網(wǎng)絡(luò)結(jié)構(gòu)最多。dropout也可以被用作一種添加噪聲的方法,直接對(duì)input進(jìn)行操作。輸入層設(shè)為更接近1的數(shù)。使得輸入變化不會(huì)太(0.8)。[多選題]80.以下關(guān)于數(shù)據(jù)服務(wù)說(shuō)法錯(cuò)誤的是:()。A)數(shù)據(jù)服務(wù)采用Serverless架構(gòu)B)支持彈性擴(kuò)展C)數(shù)據(jù)服務(wù)的功能包括:API生成、API注冊(cè)、API調(diào)用和API運(yùn)營(yíng)數(shù)據(jù)服務(wù)api接口發(fā)布成功后,可以實(shí)現(xiàn)在線修D(zhuǎn))下關(guān)于數(shù)據(jù)服務(wù)說(shuō)法錯(cuò)誤的是:()。A、數(shù)據(jù)服務(wù)采用Serverless架構(gòu)B、支持彈性擴(kuò)展C、數(shù)據(jù)服務(wù)的功能包括:API生成、API注冊(cè)、API調(diào)用和API運(yùn)營(yíng)數(shù)據(jù)服務(wù)api接口發(fā)布成功后,可以實(shí)現(xiàn)在線修答案:ABC解析:[多選題]81.在數(shù)據(jù)科學(xué)中,計(jì)算模式發(fā)生了根本性的變化--從集中式計(jì)算、分布式計(jì)算、網(wǎng)格計(jì)算等傳統(tǒng)計(jì)算過(guò)渡至云計(jì)算,有一定的代表性的是Google云計(jì)算三大技術(shù),這三大技術(shù)包括()。A)HadoopYRN資源管理器B)GFS分布式存儲(chǔ)系統(tǒng)C)MaoRedue分布式處理技術(shù)D)BigTable分布式數(shù)據(jù)庫(kù)答案:BCD解析:Goolge于2003~2008年間發(fā)表的3篇論文在云計(jì)算和大數(shù)據(jù)技術(shù)領(lǐng)域產(chǎn)生了深遠(yuǎn)影響,被稱(chēng)之為Google三大技術(shù)或三大論文:GFS論文--GhemawatS,GobioffH,LeungST.TheGooglefilesystem[C].ACMSIGOPSoperatingsystemsreview.ACM,2003,37(5):29-43;MapReduce論文--DeanJ,GhemawatS.MapReduce:simplifieddataprocessingonlargeclusters[J].CommunicationsoftheACM,2008,51(1):107-113.Bigtable論文--ChangF,DeanJ,GhemawatS,etal.Bigtable:Adistributedstoragesystemforstructureddata[J].ACMTransactionsonComputerSystems(TOCS),2008,26(2):4.[多選題]82.影響聚類(lèi)算法效果的主要原因有:()A)特征選取B)模式相似性測(cè)度C)分類(lèi)準(zhǔn)則D)已知類(lèi)別的樣本質(zhì)答案:ABC解析:聚類(lèi)算法是無(wú)監(jiān)督的學(xué)習(xí)算法,訓(xùn)練樣本的標(biāo)記信息是未知的。[多選題]83.下列有關(guān)MapReduce計(jì)算框架的描述正確的是()。A)MapReduce可以計(jì)算任務(wù)的劃分和調(diào)度;B)MapReduce可完成數(shù)據(jù)的分布存儲(chǔ)和劃分;C)MapReduce可以實(shí)現(xiàn)處理系統(tǒng)節(jié)點(diǎn)出錯(cuò)檢測(cè)和失效恢復(fù);D)MapReduce可實(shí)現(xiàn)處理數(shù)據(jù)與計(jì)算任務(wù)的同步;答案:ABCD解析:根據(jù)MapReduce定義可得,A、B、C、D都可以實(shí)現(xiàn)。[多選題]84.Hadoop生態(tài)系統(tǒng)中,核心是()。A)FlumeB)MapReduceC)PigD)HS答案:BD解析:Hadoop的框架最核心的設(shè)計(jì)就是HDFS和MapReduce。HDFS為海量的數(shù)據(jù)提供了存儲(chǔ),則MapReduce為海量的數(shù)據(jù)提供了計(jì)算。[多選題]85.下面關(guān)于中心極限定理的說(shuō)法,正確的是:A)中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以正態(tài)分布為極限B)中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以t分布為極限C)中心極限定理為Z檢驗(yàn)提供了理論支持D)中心極限定理是數(shù)理統(tǒng)計(jì)學(xué)和誤差分析的基礎(chǔ)答案:ACD解析:中心極限定理說(shuō)明,對(duì)于大量相互獨(dú)立的隨機(jī)變量,其均值的分布以正態(tài)分布為極限。[多選題]86.下列哪些項(xiàng)屬于傳統(tǒng)循環(huán)神經(jīng)網(wǎng)絡(luò)的性質(zhì)()A)上一時(shí)刻的網(wǎng)絡(luò)狀態(tài)信息將會(huì)作用于下一時(shí)刻的網(wǎng)絡(luò)狀態(tài)B)并行處理序列中所有信息C)容易梯度爆炸/消失D)易于搭答案:AC解析:循環(huán)神經(jīng)網(wǎng)絡(luò)(RecurrentNeuralNetwork,RNN)是一類(lèi)以序列(sequence)數(shù)據(jù)為輸入,在序列的演進(jìn)方向進(jìn)行遞歸(recursion)且所有節(jié)點(diǎn)(循環(huán)單元)按鏈?zhǔn)竭B接的遞歸神經(jīng)網(wǎng)絡(luò)(recursiv

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論