機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年_第1頁(yè)
機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年_第2頁(yè)
機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年_第3頁(yè)
機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年_第4頁(yè)
機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年_第5頁(yè)
已閱讀5頁(yè),還剩4頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

付費(fèi)下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

機(jī)器學(xué)習(xí):模型與算法智慧樹知到期末考試答案2024年機(jī)器學(xué)習(xí):模型與算法圖片是訓(xùn)練數(shù)據(jù)集(樣本非常少)的快照(屬性x、y分別用“+”

“o”表示),設(shè)定kNN的k=1,那么留一法交叉驗(yàn)證的誤差是(

A:0

100%B:其余選項(xiàng)均不正確C:0%D:100%答案:100%下列哪一項(xiàng)在神經(jīng)網(wǎng)絡(luò)中引入了非線性?______(

A:其余選項(xiàng)都不正確B:卷積函數(shù)C:修正線性單元(ReLU)D:隨機(jī)梯度下降答案:修正線性單元(ReLU)BP(反向傳播

Back

Propagation)算法主要是利用了_________(

A:隱函數(shù)求導(dǎo)方法;B:倒數(shù)求導(dǎo)法;C:鏈?zhǔn)角髮?dǎo)法則;D:分段函數(shù)求導(dǎo)法;答案:鏈?zhǔn)角髮?dǎo)法則門限循環(huán)單元(Gated

Recurrent

Unit,GRU)是一種比LSTM更加簡(jiǎn)化的版本。在LSTM中,輸入門和遺忘門是互補(bǔ)關(guān)系,因?yàn)橥瑫r(shí)用兩個(gè)門比較冗余。GRU將輸入門與和遺忘門合并成一個(gè)門:_______(

A:記憶門;B:更新門;C:重置門;D:輸出門;答案:更新門;點(diǎn)擊率的預(yù)測(cè)是一個(gè)數(shù)據(jù)比例不平衡問題(比如訓(xùn)練集中樣本呈陰性的比例為99%,陽(yáng)性的比例是1%),如果我們用這種數(shù)據(jù)建立模型并使得訓(xùn)練集的準(zhǔn)確率高達(dá)99%。我們可以得出結(jié)論是:(

A:其余選項(xiàng)都不正確B:無法評(píng)價(jià)模型C:模型不好,我們應(yīng)建一個(gè)更好的模型D:模型的準(zhǔn)確率非常高,我們不需要進(jìn)一步探索答案:模型不好,我們應(yīng)建一個(gè)更好的模型雖然簡(jiǎn)單循環(huán)網(wǎng)絡(luò)從理論上可以建立長(zhǎng)時(shí)間間隔的狀態(tài)之間的依賴關(guān)系(Long-Term

Dependencies),但是由于梯度爆炸或消失問題,實(shí)際上只能學(xué)習(xí)到短周期的依賴關(guān)系。這就是所謂的__________問題。(

A:中程依賴;B:不依賴;C:短程依賴;D:長(zhǎng)期依賴;答案:長(zhǎng)期依賴;前饋神經(jīng)網(wǎng)絡(luò)的輸入和輸出的維數(shù)都是__________。(

A:固定的;B:人為按規(guī)則選取的;C:隨機(jī)的;D:會(huì)隨訓(xùn)練而變化的;答案:隨機(jī)的;邏輯回歸與多元回歸分析有哪些不同?(

A:邏輯回歸回歸系數(shù)的評(píng)估B:邏輯回歸有較高的擬合效果C:其余選項(xiàng)全選D:邏輯回歸預(yù)測(cè)某事件發(fā)生的概率答案:其余選項(xiàng)全選卷積層雖然可以顯著減少連接的個(gè)數(shù),但是每一個(gè)特征映射的神經(jīng)元個(gè)數(shù)并沒有顯著減少。這樣,如果后面接一個(gè)分類器,分類器的輸入維數(shù)依然很高,很容易出現(xiàn)過擬合。為了解決這個(gè)問題,在卷積神經(jīng)網(wǎng)絡(luò)一般會(huì)在卷積層之后再加上一個(gè)__________操作。(

A:損失函數(shù)加正則化項(xiàng);B:批規(guī)范化

batch

normalizatin;C:池化(Pooling);D:增加測(cè)試樣本數(shù)量;答案:池化(Pooling);卷積神經(jīng)網(wǎng)絡(luò)(Convolutional

Neural

Networks,CNN)是一種前饋神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)是受生物學(xué)上_________的機(jī)制而提出的。(

A:非線性激活;B:感受野;C:條件反射;D:線性激活;答案:感受野;SoftMax

回歸是Logistic

回歸的多類推廣,在SoftMax

回歸中,機(jī)器學(xué)習(xí)模型預(yù)測(cè)目標(biāo)為每一個(gè)類別的_____概率。(

A:聯(lián)合;B:后驗(yàn);C:條件;D:先驗(yàn);答案:后驗(yàn);對(duì)于一個(gè)語(yǔ)音識(shí)別任務(wù)(識(shí)別用戶說的話),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個(gè)問題?(

A:卷積神經(jīng)網(wǎng)絡(luò);B:循環(huán)神經(jīng)網(wǎng)絡(luò);C:多層感知機(jī);D:感知機(jī);答案:循環(huán)神經(jīng)網(wǎng)絡(luò);如果使用sigmoid作為神經(jīng)網(wǎng)絡(luò)激活函數(shù),由于在BP算法中,誤差從輸出層反向傳播時(shí),在每一層都要乘以該層激活函數(shù)的導(dǎo)數(shù),所以可能會(huì)遇到前面層比后面層梯度變化更小且慢得多的情況,這種情況被稱為__________。(

A:梯度爆炸;B:梯度消失;C:梯度下降;D:梯度上升;答案:梯度消失;經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化原則很容易導(dǎo)致模型在訓(xùn)練集上錯(cuò)誤率很低,但是在未知數(shù)據(jù)上錯(cuò)誤率很高。這就是所謂的_____。(

A:過擬合;B:正則化;C:欠擬合;D:樣本不足;答案:過擬合;評(píng)估模型之后,得出模型存在偏差,下列哪種方法可能解決這一問題:(

A:向模型中增加更多的特征B:B

CC:增加更多的數(shù)據(jù)D:減少模型中特征的數(shù)量答案:向模型中增加更多的特征在訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),損失函數(shù)(loss)在最初的幾個(gè)epochs時(shí)沒有下降,可能的原因是?_______(

A:其余選項(xiàng)都有可能B:陷入局部最大值C:學(xué)習(xí)率太低D:正則參數(shù)太高答案:學(xué)習(xí)率太低梯度下降算法的正確步驟應(yīng)該是什么?對(duì)于下述的1-5按正確順序排序_______(

)1.計(jì)算預(yù)測(cè)值和真實(shí)值之間的誤差2.重復(fù)迭代,直至得到網(wǎng)絡(luò)權(quán)重的最佳值3.把輸入傳入網(wǎng)絡(luò),得到輸出值4.用隨機(jī)值初始化權(quán)重和偏差5.對(duì)每一個(gè)產(chǎn)生誤差的神經(jīng)元,調(diào)整相應(yīng)的(權(quán)重)值以減小誤差

A:3,2,1,5,4B:1,2,3,4,5

C:4,3,1,5,2D:5,4,3,2,1

答案:4,為了對(duì)于LSTM進(jìn)行簡(jiǎn)化,提出了一種新的循環(huán)神經(jīng)網(wǎng)絡(luò)單元,該單元稱作:__________單元。(

A:控制;B:門循環(huán);C:長(zhǎng)短時(shí)記憶;D:簡(jiǎn)單循環(huán);答案:門循環(huán);下列是常見的交叉驗(yàn)證法:a.自助法(bootstrapping)b.留一法(Leave-One-Out)c.5折交叉驗(yàn)證d.2次5折交叉驗(yàn)證樣本量為1000時(shí),根據(jù)所需的執(zhí)行時(shí)間排列上述四種方法:(

A:b>c>d>aB:b>d>c>aC:d>a>b>cD:a>b>c>d答案:b>d>c>a顧名思義,Word2Vec就是把單詞轉(zhuǎn)換成向量。它本質(zhì)上是一種_______的方法。(

A:單詞聚類;B:單詞分類;C:單詞生成;D:單詞回歸;答案:單詞聚類;有監(jiān)督學(xué)習(xí)根據(jù)輸出類型又可以分為回歸和分類兩類。(

A:錯(cuò)B:對(duì)答案:對(duì)過擬合問題往往是由于訓(xùn)練數(shù)據(jù)少和噪聲造成的。(

A:錯(cuò)B:對(duì)答案:對(duì)牛頓法是用來對(duì)函數(shù)求根的。(

A:錯(cuò)B:對(duì)答案:對(duì)假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問題,logistics回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。增加學(xué)習(xí)率,增加迭代次數(shù)可以提高訓(xùn)練速度。(

A:錯(cuò)B:對(duì)答案:錯(cuò)泛化錯(cuò)誤是和過擬合相對(duì)應(yīng)的一個(gè)概念。(

A:錯(cuò)B:對(duì)答案:對(duì)對(duì)于未標(biāo)記的訓(xùn)練樣本進(jìn)行學(xué)習(xí),以發(fā)現(xiàn)這些樣本中的結(jié)構(gòu)知識(shí),該學(xué)習(xí)方法稱為:監(jiān)督學(xué)習(xí)。(

A:錯(cuò)B:對(duì)答案:錯(cuò)解決非凸優(yōu)化問題并不是深度學(xué)習(xí)的難點(diǎn)。(

A:錯(cuò)B:對(duì)答案:錯(cuò)動(dòng)量法、AdaGrad、AdaDelta是常見的設(shè)置學(xué)習(xí)率的方法。(

A:錯(cuò)B:對(duì)答案:對(duì)GRU網(wǎng)絡(luò)中包含輸入門;遺忘門;輸出門。(

A:對(duì)B:錯(cuò)答案:錯(cuò)SVM的全稱是support

vector

machine。(

A:錯(cuò)B:對(duì)答案:對(duì)在梯度下降訓(xùn)練的過程中,在訓(xùn)練樣本上收斂的參數(shù),并不一定在測(cè)試集上最優(yōu)。。(

A:對(duì)B:錯(cuò)答案:對(duì)Hinge

Loss

0-1

損失函數(shù)是邏輯回歸的損失函數(shù)。(

A:對(duì)B:錯(cuò)答案:對(duì)聚類是一個(gè)典型的無監(jiān)督學(xué)習(xí)問題。(

A:對(duì)B:錯(cuò)答案:錯(cuò)訓(xùn)練一個(gè)支持向量機(jī),除去不支持的向量后仍能分類。(

A:錯(cuò)B:對(duì)答案:對(duì)如果自變量和因變量之間高度非線性且關(guān)系復(fù)雜,那么運(yùn)用樹回歸優(yōu)于經(jīng)典回歸模型。(

A:錯(cuò)B:對(duì)答案:對(duì)深度學(xué)習(xí)是由在計(jì)算機(jī)上模擬人類神經(jīng)回路的神經(jīng)元網(wǎng)絡(luò)技術(shù)發(fā)展而來。。(

A:錯(cuò)B:對(duì)答案:對(duì)在梯度下降訓(xùn)練的過程中,我們開發(fā)集來測(cè)試每一次迭代的參數(shù)在驗(yàn)證集上是否最優(yōu)。(

A:錯(cuò)B:對(duì)答案:對(duì)在模型訓(xùn)練過程中,進(jìn)行梯度下降法進(jìn)行參數(shù)更新時(shí),使用學(xué)習(xí)率這個(gè)參數(shù)來控制參數(shù)變化的快慢。(

A:錯(cuò)B:對(duì)答案:對(duì)過擬合是有監(jiān)督學(xué)習(xí)的挑戰(zhàn),而不是無監(jiān)督學(xué)習(xí)。(

A:錯(cuò)B:對(duì)答案:錯(cuò)邏輯回歸用來做回歸任務(wù)的。(

A:對(duì)B:錯(cuò)答案:錯(cuò)一個(gè)回歸模型存在多重共線問題。在不損失過多信息的情況下,你該怎么做:(

A:移除相關(guān)變量可能會(huì)導(dǎo)致信息的丟失,為了保留這些變量,我們可以使用嶺回歸(ridge)或lasso等回歸方法對(duì)模型進(jìn)行懲罰B:移除共線的兩個(gè)變量C:移除共線的兩個(gè)變量其中一個(gè)D:我們可以計(jì)算方差膨脹因子(variance

inflation

factor)來檢查存在的多重共線性并采取相應(yīng)的措施答案:移除共線的兩個(gè)變量以下哪種方法可以減少數(shù)據(jù)集中的特征?(

A:根據(jù)相關(guān)表提出相關(guān)性高的特征B:使用“前向”搜索C:我們把模型中的所有特征都訓(xùn)練一次,得到測(cè)試中模型的精確性。每次取一個(gè)特征,對(duì)測(cè)試數(shù)據(jù)集的特征值進(jìn)行清洗,并且對(duì)測(cè)試數(shù)據(jù)進(jìn)行預(yù)測(cè),然后評(píng)估模型。若模型的精確性提高,則移除次特征。D:使用“后向”搜索答案:使用“前向”搜索;使用“后向”搜索;我們把模型中的所有特征都訓(xùn)練一次,得到測(cè)試中模型的精確性。每次取一個(gè)特征,對(duì)測(cè)試數(shù)據(jù)集的特征值進(jìn)行清洗,并且對(duì)測(cè)試數(shù)據(jù)進(jìn)行預(yù)測(cè),然后評(píng)估模型。若模型的精確性提高,則移除次特征。;根據(jù)相關(guān)表提出相關(guān)性高的特征在一個(gè)包含5000個(gè)特征及超過一百萬個(gè)觀測(cè)值的數(shù)據(jù)集上建立一個(gè)機(jī)器學(xué)習(xí)的模型,下面哪種方法能更高效地訓(xùn)練模型?(

A:使用在線學(xué)習(xí)算法B:使用支持向量機(jī)SVM來建立模型

C:從數(shù)據(jù)集中隨機(jī)抽取樣本來建立模型D:使用主成分分析法(PCA)對(duì)數(shù)據(jù)降維答案:從數(shù)據(jù)集中隨機(jī)抽取樣本來建立模型###使用在線學(xué)習(xí)算法###使用主成分分析法(PCA)對(duì)數(shù)據(jù)降維下列哪種算法可以用神經(jīng)網(wǎng)絡(luò)構(gòu)建?(

A:K-NN最近鄰算法B:線性回歸C:邏輯回歸D:K-mean聚類算法答案:線性回歸###邏輯回歸下列屬于常見的池化方式的有:(

A:平均池化;B:最大池化;C:概率池化;D:隨機(jī)池化;答案:最大池化###平均池化###隨機(jī)池化下列屬于SVM核函數(shù)的有:(

A:logistic核函數(shù);B:線性核函數(shù)C:高斯核函數(shù);D:多項(xiàng)式核函數(shù);答案:多項(xiàng)式核函數(shù)###高斯核函數(shù)###線性核函數(shù)L-BFGS的描述中,正確的是(

A:空間消耗相對(duì)于BFGS小B:具備牛頓法收斂速度快的特點(diǎn)C:不需要存儲(chǔ)Hesse矩陣D:適合大規(guī)模的數(shù)值計(jì)算答案:不需要存儲(chǔ)Hesse矩陣###具備牛頓法收斂速度快的特點(diǎn)###空間消耗相對(duì)于BFGS小###適合大規(guī)模的數(shù)值計(jì)算小明參加某公司的大數(shù)據(jù)競(jìng)賽,他的成績(jī)?cè)诖筚惻判邪裆显揪佑谇岸?,后來他保持特征不變,?duì)原來的模型做了1天的調(diào)參,將自己的模型在自己本地測(cè)試集上的準(zhǔn)確率提升了5%,然后他信心滿滿地將新模型的預(yù)測(cè)結(jié)果更新到了大賽官網(wǎng)上,結(jié)果懊惱地發(fā)現(xiàn)自己的新模型在大賽官方的測(cè)試集上準(zhǔn)確率反而下降了。對(duì)此,他的朋友們展開了討論,下列哪些說法是正確的(

A:小月:早就和你說過了,乖乖使用默認(rèn)的參數(shù)就好了,調(diào)參是不可能有收益的B:小芳:從機(jī)器學(xué)習(xí)理論的角度,這樣的情況不應(yīng)該發(fā)生,快去找大賽組委會(huì)反應(yīng)C:小平:你可以考慮一下,使用交叉驗(yàn)證來驗(yàn)證一下是否發(fā)生了過擬合D:小剛:你這個(gè)有可能是由于過擬合導(dǎo)致的答案:小平:你可以考慮一下,使用交叉驗(yàn)證來驗(yàn)證一下是否發(fā)生了過擬合下列表述中,在k-fold交叉驗(yàn)證中關(guān)于選擇K說法正確的是:(

A:在交叉驗(yàn)證中通過均值法來選擇K值B:相對(duì)于期望誤差來說,選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)C:在交叉驗(yàn)證中通過最小化方差法來選擇K值D:較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來評(píng)估你的結(jié)果答案:較大的K并不總是好的,選擇較大的K可能需要較長(zhǎng)的時(shí)間來評(píng)估你的結(jié)果###相對(duì)于期望誤差來說,選擇較大的K會(huì)導(dǎo)致低偏差(因?yàn)橛?xùn)練folds會(huì)變得與整個(gè)數(shù)據(jù)集相似)###在交叉驗(yàn)證中通過最小化方差法來選擇K值下列關(guān)于“集成學(xué)習(xí)”說法錯(cuò)誤的是?(

A:個(gè)體學(xué)習(xí)器間相關(guān)性較高B:個(gè)體學(xué)習(xí)器間相關(guān)性較低C:使用“加權(quán)平均”而不是“投票法”產(chǎn)生結(jié)果D:個(gè)體學(xué)習(xí)器由相同的學(xué)習(xí)算法生成答案:個(gè)體學(xué)習(xí)器由相同的學(xué)習(xí)算法生成###個(gè)體學(xué)習(xí)器間相關(guān)性較高###使用“加權(quán)平均”而不是“投票法”產(chǎn)生結(jié)果下列關(guān)于梯度樹提升說法正確的是?(

A:降低擬合個(gè)體學(xué)習(xí)器樣本的分?jǐn)?shù)可以降低方差B:當(dāng)分裂所需最小樣本數(shù)增加時(shí),模型擬合過度C:降低擬合個(gè)體學(xué)習(xí)器樣本的分?jǐn)?shù)可以減少偏差D:當(dāng)分裂所需最小樣本數(shù)增加時(shí),模型擬合不足答案:當(dāng)分裂所需最小樣本數(shù)增加時(shí),模型擬合不足;降低擬合個(gè)體學(xué)習(xí)器樣本的分?jǐn)?shù)可以降低方差在梯度下降訓(xùn)練的過程中,由于過擬合的原因,在訓(xùn)練樣本上收斂的參數(shù),并不一定在測(cè)試集上最優(yōu)。因此,我們使用一個(gè)驗(yàn)證集(Validation

Dataset)(也叫開發(fā)集(Development

Dataset))來測(cè)試每一次迭代的參數(shù)在驗(yàn)證集上是否最優(yōu)。如果沒有驗(yàn)證集,哪幾項(xiàng)不適合在訓(xùn)練集上進(jìn)行:(

A:依次驗(yàn)證;B:隨機(jī)驗(yàn)證;C:順序驗(yàn)證;D:交叉驗(yàn)證;答案:隨機(jī)驗(yàn)證###依次驗(yàn)證###順序驗(yàn)證下述領(lǐng)域中可以用機(jī)器學(xué)習(xí)來參與解決的為_______。(

A:機(jī)器翻譯;B:語(yǔ)音識(shí)別;C:圖像分類;D:視頻動(dòng)作定位;答案:語(yǔ)音識(shí)別###圖像分類###機(jī)器翻譯###視頻動(dòng)作定位下面哪一項(xiàng)

用決策樹法訓(xùn)練大量數(shù)據(jù)集不會(huì)節(jié)約時(shí)間?(

A:增加樹的深度B:減少樹的深度C:增加學(xué)習(xí)率D:減少樹的個(gè)數(shù)答案:減少樹的深度下列機(jī)器學(xué)習(xí)的應(yīng)用中,屬于自然語(yǔ)言處理領(lǐng)域的有:(

A:機(jī)器翻譯;B:目標(biāo)識(shí)別;C:智能問答;D:機(jī)器閱讀;答案:智能問答;###機(jī)器翻譯;###機(jī)器閱讀;在一個(gè)線性回歸模型中增加新的變量,下列說法不正確的是?(

A:R^2和調(diào)整的R^2都增大B:R^2不變,調(diào)整的R^2增大C:R^2和調(diào)整的R^2都減小D:R^2減小,調(diào)整的R^2增大答案:R^2和調(diào)整的R^2都增大;R^2不變,調(diào)整的R^2增大;R^2和調(diào)整的R^2都減小;R^2減小,調(diào)整的R^2增大在建立線性回歸模型時(shí),3對(duì)變量(Var1和Var2,Var2和Var3,Var3和Var1)之間的相關(guān)性分別為-0.98,0.45和1.23。我們可以從中推斷出什么?(

A:由于Var1和Var2之間相關(guān)性較高,因此存在多重共線性,應(yīng)該移除這兩個(gè)變量B:Var1和Var2之間相關(guān)性較高C:Var1和Var2之間相關(guān)性較低D:Var3和Var1之間的相關(guān)系數(shù)為1.23是不可能的答案:Var1和Var2之間相關(guān)性較高###由于Var1和Var2之間相關(guān)性較高,因此存在多重共線性,應(yīng)該移除這兩個(gè)變量###Var3和Var1之間的相關(guān)系數(shù)為1.23是不可能的關(guān)于L1正則和L2正則

下面的說法正確的是(

A:L2正則化有個(gè)名稱叫“Lasso

regularization”B:L2范數(shù)可以防止過擬合,提升模型的泛化能力。但L1正則做不到這一點(diǎn)C:L2正則化標(biāo)識(shí)各個(gè)參數(shù)的平方的和的開方值。D:L1范數(shù)會(huì)使權(quán)值稀疏答案:L1范數(shù)會(huì)使權(quán)值稀疏。###L2正則化標(biāo)識(shí)各個(gè)參數(shù)的平方的和的開方值。下面對(duì)于logistic回歸與SVM的分析正確的有:(

A:從目標(biāo)函數(shù)來看,logistic回歸采用的是

logistical

loss,SVM

采用的是

hinge

loss;B:logistic回歸和SVM都可以處理分類問題,且一般都用于處理線性二分類問題。但是logistic回歸改進(jìn)后可以處理多分類問題,而SVM不能處理多分類問題;C:SVM

的處理方法是只考慮

support

vectors,也就是和分類最相關(guān)的少數(shù)點(diǎn),去學(xué)習(xí)分類器。而邏輯回歸通過非線性映射,大大減小了離分類平面較遠(yuǎn)的點(diǎn)的權(quán)重,相對(duì)提升了與分類最相關(guān)的數(shù)據(jù)點(diǎn)的權(quán)重;D:兩個(gè)方法都可以增加不同的正則化項(xiàng),如

l1、l2

等等;答案:AI參考:下面對(duì)于logistic回歸與SVM的分析正確的有:(ABCD)\n\nA:從目標(biāo)函數(shù)來看,logistic回歸采用的是logisticlos

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論