版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
2025年征信考試題庫-征信數(shù)據(jù)分析挖掘征信數(shù)據(jù)挖掘?qū)W習(xí)試題考試時間:______分鐘總分:______分姓名:______一、單選題(本部分共20題,每題2分,共40分。請仔細(xì)閱讀每個選項,選擇最符合題意的答案。)1.征信數(shù)據(jù)挖掘的首要目標(biāo)是?A.提高數(shù)據(jù)存儲量B.降低數(shù)據(jù)傳輸成本C.揭示數(shù)據(jù)背后的潛在規(guī)律D.優(yōu)化數(shù)據(jù)庫結(jié)構(gòu)2.在征信數(shù)據(jù)分析中,哪些指標(biāo)通常用來衡量數(shù)據(jù)的離散程度?A.均值和中位數(shù)B.方差和標(biāo)準(zhǔn)差C.峰度和偏度D.矩陣和向量3.以下哪種方法不屬于常用的數(shù)據(jù)預(yù)處理技術(shù)?A.缺失值填充B.數(shù)據(jù)歸一化C.特征選擇D.數(shù)據(jù)聚類4.在進(jìn)行邏輯回歸分析時,如何處理多重共線性問題?A.增加樣本量B.使用嶺回歸C.剔除無關(guān)變量D.改變模型參數(shù)5.決策樹算法中,選擇分裂屬性的標(biāo)準(zhǔn)通常是什么?A.信息增益B.均值方差C.相關(guān)系數(shù)D.決策熵6.支持向量機在處理高維數(shù)據(jù)時有什么優(yōu)勢?A.降低計算復(fù)雜度B.提高模型泛化能力C.減少過擬合風(fēng)險D.增強數(shù)據(jù)可視化7.以下哪種算法屬于無監(jiān)督學(xué)習(xí)?A.線性回歸B.邏輯回歸C.K-Means聚類D.決策樹分類8.在進(jìn)行特征工程時,以下哪種方法不屬于特征交互?A.特征組合B.特征分解C.特征轉(zhuǎn)換D.特征提取9.征信評分模型中,常用的損失函數(shù)是什么?A.均方誤差B.交叉熵C.卡方檢驗D.曼哈頓距離10.在處理不平衡數(shù)據(jù)集時,以下哪種方法最為有效?A.重采樣B.降維C.聚類D.增益樹11.征信數(shù)據(jù)挖掘中,時間序列分析的主要目的是什么?A.預(yù)測未來趨勢B.分析歷史數(shù)據(jù)C.揭示數(shù)據(jù)分布D.檢測異常值12.在進(jìn)行關(guān)聯(lián)規(guī)則挖掘時,常用的評估指標(biāo)是什么?A.相關(guān)系數(shù)B.支持度C.偏度D.方差13.征信模型評估中,AUC值通常用來衡量什么?A.模型的線性度B.模型的非線性度C.模型的區(qū)分能力D.模型的復(fù)雜度14.在進(jìn)行特征選擇時,以下哪種方法屬于過濾法?A.遞歸特征消除B.Lasso回歸C.逐步回歸D.決策樹15.征信數(shù)據(jù)挖掘中,常用的異常值檢測方法是什么?A.箱線圖B.小波變換C.主成分分析D.獨立成分分析16.在進(jìn)行模型調(diào)參時,以下哪種方法最為常用?A.隨機搜索B.網(wǎng)格搜索C.貝葉斯優(yōu)化D.遺傳算法17.征信數(shù)據(jù)挖掘中,常用的集成學(xué)習(xí)方法是什么?A.決策樹B.隨機森林C.支持向量機D.邏輯回歸18.在進(jìn)行特征工程時,以下哪種方法屬于特征變換?A.特征歸一化B.特征編碼C.特征組合D.特征提取19.征信評分模型中,常用的評估指標(biāo)是什么?A.準(zhǔn)確率B.召回率C.F1分?jǐn)?shù)D.AUC值20.在處理高維數(shù)據(jù)時,以下哪種方法最為有效?A.主成分分析B.線性回歸C.決策樹D.支持向量機二、多選題(本部分共10題,每題3分,共30分。請仔細(xì)閱讀每個選項,選擇所有符合題意的答案。)1.征信數(shù)據(jù)挖掘中,常用的數(shù)據(jù)預(yù)處理技術(shù)有哪些?A.缺失值填充B.數(shù)據(jù)歸一化C.特征選擇D.數(shù)據(jù)聚類2.在進(jìn)行邏輯回歸分析時,如何處理多重共線性問題?A.增加樣本量B.使用嶺回歸C.剔除無關(guān)變量D.改變模型參數(shù)3.決策樹算法中,選擇分裂屬性的標(biāo)準(zhǔn)通常是什么?A.信息增益B.均值方差C.相關(guān)系數(shù)D.決策熵4.支持向量機在處理高維數(shù)據(jù)時有什么優(yōu)勢?A.降低計算復(fù)雜度B.提高模型泛化能力C.減少過擬合風(fēng)險D.增強數(shù)據(jù)可視化5.征信數(shù)據(jù)挖掘中,常用的特征工程方法有哪些?A.特征組合B.特征分解C.特征轉(zhuǎn)換D.特征提取6.在進(jìn)行模型調(diào)參時,以下哪種方法最為常用?A.隨機搜索B.網(wǎng)格搜索C.貝葉斯優(yōu)化D.遺傳算法7.征信數(shù)據(jù)挖掘中,常用的異常值檢測方法有哪些?A.箱線圖B.小波變換C.主成分分析D.獨立成分分析8.在進(jìn)行關(guān)聯(lián)規(guī)則挖掘時,常用的評估指標(biāo)是什么?A.相關(guān)系數(shù)B.支持度C.偏度D.方差9.征信評分模型中,常用的評估指標(biāo)有哪些?A.準(zhǔn)確率B.召回率C.F1分?jǐn)?shù)D.AUC值10.在處理不平衡數(shù)據(jù)集時,以下哪種方法最為有效?A.重采樣B.降維C.聚類D.增益樹三、判斷題(本部分共10題,每題2分,共20分。請仔細(xì)閱讀每個選項,判斷其正誤。)1.征信數(shù)據(jù)挖掘的主要目的是為了提高數(shù)據(jù)存儲效率。2.在進(jìn)行數(shù)據(jù)歸一化時,常用的方法有最小-最大縮放和Z-score標(biāo)準(zhǔn)化。3.決策樹算法是一種典型的監(jiān)督學(xué)習(xí)方法。4.支持向量機在處理線性不可分問題時,可以通過核函數(shù)將數(shù)據(jù)映射到高維空間。5.征信評分模型中,模型的復(fù)雜度越高,其預(yù)測能力就越強。6.在進(jìn)行特征選擇時,遞歸特征消除是一種常用的包裹式方法。7.征信數(shù)據(jù)挖掘中,時間序列分析的主要目的是為了預(yù)測未來趨勢。8.在進(jìn)行關(guān)聯(lián)規(guī)則挖掘時,常用的評估指標(biāo)有支持度、置信度和提升度。9.征信評分模型中,常用的評估指標(biāo)有準(zhǔn)確率、召回率和F1分?jǐn)?shù)。10.在處理不平衡數(shù)據(jù)集時,過采樣方法通常比欠采樣方法更為有效。四、簡答題(本部分共5題,每題4分,共20分。請根據(jù)題目要求,簡要回答問題。)1.簡述征信數(shù)據(jù)挖掘的主要步驟。2.解釋什么是多重共線性問題,并說明其解決方法。3.描述決策樹算法的基本原理,并說明選擇分裂屬性的標(biāo)準(zhǔn)。4.說明支持向量機在處理高維數(shù)據(jù)時的優(yōu)勢,并舉例說明其應(yīng)用場景。5.描述征信數(shù)據(jù)挖掘中,常用的異常值檢測方法,并說明其適用場景。本次試卷答案如下一、單選題答案及解析1.答案:C解析:征信數(shù)據(jù)挖掘的首要目標(biāo)是揭示數(shù)據(jù)背后的潛在規(guī)律,通過分析征信數(shù)據(jù),找出借款人信用狀況的影響因素和規(guī)律,從而為信貸決策提供支持。A選項提高數(shù)據(jù)存儲量不是數(shù)據(jù)挖掘的目標(biāo);B選項降低數(shù)據(jù)傳輸成本也不是數(shù)據(jù)挖掘的主要目的;D選項優(yōu)化數(shù)據(jù)庫結(jié)構(gòu)屬于數(shù)據(jù)工程范疇,不是數(shù)據(jù)挖掘的核心目標(biāo)。2.答案:B解析:方差和標(biāo)準(zhǔn)差是常用的衡量數(shù)據(jù)離散程度的指標(biāo)。均值和中位數(shù)主要用于衡量數(shù)據(jù)的集中趨勢;峰度和偏度用于描述數(shù)據(jù)分布的形狀;矩陣和向量是數(shù)據(jù)表示的形式,不是衡量離散程度的指標(biāo)。3.答案:D解析:常用的數(shù)據(jù)預(yù)處理技術(shù)包括缺失值填充、數(shù)據(jù)歸一化、特征選擇等。數(shù)據(jù)聚類屬于無監(jiān)督學(xué)習(xí)方法,不是數(shù)據(jù)預(yù)處理技術(shù)。4.答案:B解析:嶺回歸是一種正則化方法,可以通過添加L2正則化項來處理多重共線性問題。增加樣本量可能有助于提高模型的泛化能力,但并不能直接解決多重共線性問題;剔除無關(guān)變量可以減少多重共線性,但需要先進(jìn)行特征選擇;改變模型參數(shù)可能有助于提高模型性能,但并不能直接解決多重共線性問題。5.答案:A解析:信息增益是決策樹算法中選擇分裂屬性的標(biāo)準(zhǔn)之一,它表示分裂前后數(shù)據(jù)純度的提升程度。均值方差、相關(guān)系數(shù)和決策熵不是決策樹算法中選擇分裂屬性的標(biāo)準(zhǔn)。6.答案:B解析:支持向量機在處理高維數(shù)據(jù)時具有提高模型泛化能力的優(yōu)勢,通過將數(shù)據(jù)映射到高維空間,可以更好地分離不同類別的數(shù)據(jù)。降低計算復(fù)雜度、減少過擬合風(fēng)險和增強數(shù)據(jù)可視化不是支持向量機的主要優(yōu)勢。7.答案:C解析:K-Means聚類是一種無監(jiān)督學(xué)習(xí)方法,通過將數(shù)據(jù)點劃分為不同的簇,來揭示數(shù)據(jù)分布的潛在結(jié)構(gòu)。線性回歸、邏輯回歸和決策樹分類都屬于監(jiān)督學(xué)習(xí)方法。8.答案:B解析:特征交互包括特征組合、特征分解等,通過將多個特征組合成一個新的特征,或者將一個特征分解成多個新的特征,來提高模型的預(yù)測能力。特征轉(zhuǎn)換和特征提取不屬于特征交互。9.答案:B解析:交叉熵是征信評分模型中常用的損失函數(shù),特別是在邏輯回歸和分類模型中。均方誤差、卡方檢驗和曼哈頓距離不是征信評分模型中常用的損失函數(shù)。10.答案:A解析:重采樣是處理不平衡數(shù)據(jù)集的常用方法,通過對少數(shù)類進(jìn)行過采樣,或者對多數(shù)類進(jìn)行欠采樣,來平衡數(shù)據(jù)集的類別分布。降維、聚類和增益樹不是處理不平衡數(shù)據(jù)集的常用方法。11.答案:A解析:時間序列分析的主要目的是預(yù)測未來趨勢,通過對歷史數(shù)據(jù)進(jìn)行分析,找出數(shù)據(jù)變化的規(guī)律,從而預(yù)測未來的發(fā)展趨勢。分析歷史數(shù)據(jù)、揭示數(shù)據(jù)分布和檢測異常值不是時間序列分析的主要目的。12.答案:B解析:支持度是關(guān)聯(lián)規(guī)則挖掘中常用的評估指標(biāo),表示某個項集在所有交易中出現(xiàn)的頻率。相關(guān)系數(shù)、偏度和方差不是關(guān)聯(lián)規(guī)則挖掘中常用的評估指標(biāo)。13.答案:C解析:AUC值(AreaUndertheROCCurve)是衡量模型區(qū)分能力的指標(biāo),表示模型將正類樣本正確預(yù)測為正類的概率。模型的線性度、非線性度和復(fù)雜度不是衡量模型區(qū)分能力的指標(biāo)。14.答案:B解析:Lasso回歸是一種過濾式特征選擇方法,通過L1正則化項將不重要的特征系數(shù)壓縮為0,從而實現(xiàn)特征選擇。遞歸特征消除、逐步回歸和決策樹不屬于過濾式特征選擇方法。15.答案:A解析:箱線圖是一種常用的異常值檢測方法,通過箱線圖的上下邊緣和異常值標(biāo)記,可以直觀地檢測數(shù)據(jù)中的異常值。小波變換、主成分分析和獨立成分分析不是異常值檢測方法。16.答案:B解析:網(wǎng)格搜索是一種常用的模型調(diào)參方法,通過遍歷所有可能的參數(shù)組合,選擇最優(yōu)的參數(shù)組合。隨機搜索、貝葉斯優(yōu)化和遺傳算法也是模型調(diào)參方法,但網(wǎng)格搜索更為常用。17.答案:B解析:隨機森林是一種常用的集成學(xué)習(xí)方法,通過構(gòu)建多個決策樹,并綜合它們的預(yù)測結(jié)果,來提高模型的泛化能力。決策樹、支持向量機和邏輯回歸不是集成學(xué)習(xí)方法。18.答案:A解析:特征歸一化是一種特征變換方法,通過將特征值縮放到某個特定范圍(如0-1),來消除不同特征之間的量綱差異。特征編碼、特征組合和特征提取不屬于特征變換。19.答案:D解析:AUC值(AreaUndertheROCCurve)是征信評分模型中常用的評估指標(biāo),表示模型將正類樣本正確預(yù)測為正類的概率。準(zhǔn)確率、召回率和F1分?jǐn)?shù)也是評估指標(biāo),但AUC值更為常用。20.答案:A解析:主成分分析是一種常用的降維方法,通過將多個特征組合成少數(shù)幾個主成分,來降低數(shù)據(jù)的維度,同時保留大部分信息。線性回歸、決策樹和支持向量機不是降維方法。二、多選題答案及解析1.答案:A、B、C解析:常用的數(shù)據(jù)預(yù)處理技術(shù)包括缺失值填充、數(shù)據(jù)歸一化、特征選擇等。數(shù)據(jù)聚類屬于無監(jiān)督學(xué)習(xí)方法,不是數(shù)據(jù)預(yù)處理技術(shù)。2.答案:B、C、D解析:解決多重共線性問題的方法包括使用嶺回歸、剔除無關(guān)變量和改變模型參數(shù)。增加樣本量可能有助于提高模型的泛化能力,但并不能直接解決多重共線性問題。3.答案:A、D解析:決策樹算法中選擇分裂屬性的標(biāo)準(zhǔn)通常有信息增益和決策熵。均值方差、相關(guān)系數(shù)不是選擇分裂屬性的標(biāo)準(zhǔn)。4.答案:B、C解析:支持向量機在處理高維數(shù)據(jù)時具有提高模型泛化能力和減少過擬合風(fēng)險的優(yōu)勢。降低計算復(fù)雜度和增強數(shù)據(jù)可視化不是支持向量機的主要優(yōu)勢。5.答案:A、C、D解析:常用的特征工程方法包括特征組合、特征轉(zhuǎn)換和特征提取。特征分解不屬于特征工程方法。6.答案:B、C解析:常用的模型調(diào)參方法有網(wǎng)格搜索和貝葉斯優(yōu)化。隨機搜索和遺傳算法也是模型調(diào)參方法,但網(wǎng)格搜索和貝葉斯優(yōu)化更為常用。7.答案:A、B解析:常用的異常值檢測方法有箱線圖和小波變換。主成分分析和獨立成分分析不是異常值檢測方法。8.答案:B、C解析:關(guān)聯(lián)規(guī)則挖掘中常用的評估指標(biāo)有支持度和置信度。相關(guān)系數(shù)、方差不是評估指標(biāo)。9.答案:A、B、D解析:征信評分模型中常用的評估指標(biāo)有準(zhǔn)確率、召回率和AUC值。F1分?jǐn)?shù)也是評估指標(biāo),但準(zhǔn)確率和召回率更為常用。10.答案:A、D解析:處理不平衡數(shù)據(jù)集的常用方法有過采樣和增益樹。降維和聚類不是處理不平衡數(shù)據(jù)集的常用方法。三、判斷題答案及解析1.答案:錯誤解析:征信數(shù)據(jù)挖掘的主要目的是為了揭示數(shù)據(jù)背后的潛在規(guī)律,為信貸決策提供支持,而不是為了提高數(shù)據(jù)存儲效率。2.答案:正確解析:數(shù)據(jù)歸一化常用的方法有最小-最大縮放和Z-score標(biāo)準(zhǔn)化,通過將特征值縮放到某個特定范圍,來消除不同特征之間的量綱差異。3.答案:正確解析:決策樹算法是一種典型的監(jiān)督學(xué)習(xí)方法,通過學(xué)習(xí)訓(xùn)練數(shù)據(jù)中的特征和標(biāo)簽,構(gòu)建決策樹模型,來進(jìn)行分類或回歸預(yù)測。4.答案:正確解析:支持向量機在處理線性不可分問題時,可以通過核函數(shù)將數(shù)據(jù)映射到高維空間,從而將線性不可分的數(shù)據(jù)映射到線性可分的空間。5.答案:錯誤解析:模型的復(fù)雜度越高,其預(yù)測能力不一定就越強,過高的模型復(fù)雜度可能導(dǎo)致過擬合,反而降低模型的泛化能力。6.答案:錯誤解析:遞歸特征消除是一種包裹式特征選擇方法,而不是過濾式特征選擇方法。過濾式特征選擇方法包括基于方差、相關(guān)系數(shù)等的方法。7.答案:錯誤解析:時間序列分析的主要目的是預(yù)測未來趨勢,而不是分析歷史數(shù)據(jù)。分析歷史數(shù)據(jù)是時間序列分析的基礎(chǔ),但主要目的還是預(yù)測未來趨勢。8.答案:正確解析:關(guān)聯(lián)規(guī)則挖掘中常用的評估指標(biāo)有支持度、置信度和提升度,通過這些指標(biāo)可以評估關(guān)聯(lián)規(guī)則的強度和實用性。9.答案:正確解析:征信評分模型中常用的評估指標(biāo)有準(zhǔn)確率、召回率和F1分?jǐn)?shù),這些指標(biāo)可以評估模型的預(yù)測性能。10.答案:錯誤解析:處理不平衡數(shù)據(jù)集時,過采樣和欠采樣方法的適用性取決于具體問題和數(shù)據(jù)集的特點,沒有絕對的優(yōu)劣之分。四、簡答題答案及解析1.簡述征信數(shù)據(jù)挖掘的主要步驟答案:征信數(shù)據(jù)挖掘的主要步驟包括數(shù)據(jù)收集、數(shù)據(jù)預(yù)處理、特征工程、模型選擇、模型訓(xùn)練、模型評估和模型應(yīng)用。數(shù)據(jù)收集是從各種渠道獲取征信數(shù)據(jù);數(shù)據(jù)預(yù)處理包括缺失值填充、數(shù)據(jù)歸一化、異常值檢測等;特征工程包括特征選擇、特征組合、特征變換等;模型選擇是根據(jù)問題類型選擇合適的模型;模型訓(xùn)練是使用訓(xùn)練數(shù)據(jù)訓(xùn)練模型;模型評估是使用評估數(shù)據(jù)評估模型的性能;模型應(yīng)用是將模型應(yīng)用到實際場景中。解析:征信數(shù)據(jù)挖掘的主要步驟是一個系統(tǒng)的過程,每個步驟都非常重要。數(shù)據(jù)收集是基礎(chǔ),數(shù)據(jù)預(yù)處理是關(guān)鍵,特征工程是提高模型性能的重要手段,模型選擇和模型訓(xùn)練是核心,模型評估是檢驗?zāi)P托阅艿闹匾椒?,模型?yīng)用是最終目的。2.解釋什么是多重共線性問題,并說明其解決方法答案:多重共線性問題是指模型中的多個特征高度相關(guān),導(dǎo)致模型參數(shù)估計不準(zhǔn)確,模型解釋性差。解決多重共線性問題的方法包括使用嶺回歸、剔除無關(guān)變量和改變模型參數(shù)。嶺回歸通過添加L2正則化項來懲罰大的系數(shù),從而減少多重共線性問題;剔除無關(guān)變量可以減少特征之間的相關(guān)性;改變模型參數(shù)可以調(diào)整模型的復(fù)雜度,從而減少多重共線性問題。解析:多重共線性問題是一個常見的統(tǒng)計問題,特別是在線性回歸和邏輯回歸中。多重共線性問題的存在會導(dǎo)致模型參數(shù)估計不準(zhǔn)確,模型解釋性差,從而影響模型的預(yù)測性能。解決多重共線性問題需要根據(jù)具體問題選擇合適的方法,常用的方法包括嶺回歸、剔除無關(guān)變量和改變模型參數(shù)。3.描述決策樹算法的基本原理,并說明選擇分裂屬性的標(biāo)準(zhǔn)答案:決策樹算法是一種基于樹形結(jié)構(gòu)進(jìn)行決策的監(jiān)督學(xué)習(xí)方法,通過學(xué)習(xí)訓(xùn)練數(shù)據(jù)中的特征和標(biāo)簽,構(gòu)建決策樹模型,來進(jìn)行分類或回歸預(yù)測。決策樹算法的基本原理是從根節(jié)點開始,根據(jù)特征的不同值進(jìn)行分裂,逐步構(gòu)建樹形結(jié)構(gòu),直到達(dá)到葉子節(jié)點。選擇分裂屬性的標(biāo)準(zhǔn)通常有信息增益和決策熵,信息增益表示分裂前后數(shù)據(jù)純度的提升程度,決策熵表示數(shù)據(jù)的不確定性,選擇分裂屬性的標(biāo)準(zhǔn)是選擇能夠最大程度減少數(shù)據(jù)不確定性的屬性。解析:決策樹算法是一種直觀且易于理解的監(jiān)督學(xué)習(xí)方法,通過樹形結(jié)構(gòu)進(jìn)行決策,可以直觀地展示決策過程。決策樹算法的基本原理是通過逐步分裂特征,將數(shù)據(jù)分類或回歸預(yù)測。選擇分裂屬性的標(biāo)準(zhǔn)是選擇能夠最大程
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025FIGOIPPS共識:慢性盆腔疼痛全球管理方案改善探索
- 2025廣東深圳市規(guī)劃和自然資源局光明管理局勞務(wù)派遣人員招聘1人考試筆試備考試題及答案解析
- 昔昔課件教學(xué)課件
- 中心供氧安全教育
- 運動手表創(chuàng)業(yè)介紹
- 昂科旗產(chǎn)品教學(xué)課件
- 重癥醫(yī)學(xué)科機械通氣護理要點介紹
- 班級感恩教育活動實施方案
- 七年級英語單元重點詞匯與測試題
- 小學(xué)英語教師教學(xué)計劃及教學(xué)反思
- 零序CT驗收專題知識專家講座
- 自動控制原理課程設(shè)計報告恒溫箱
- 江西d照駕駛員理論考試
- 水利水電工程建設(shè)參建各方安全生產(chǎn)職責(zé)
- GB/T 30340-2013機動車駕駛員培訓(xùn)機構(gòu)資格條件
- GB/T 19215.1-2003電氣安裝用電纜槽管系統(tǒng)第1部分:通用要求
- GB/T 13298-2015金屬顯微組織檢驗方法
- 滴滴打車用戶出行習(xí)慣報告
- 核對稿-400單元開車
- 保密管理-保密教育培訓(xùn)簽到簿
- 《中藥炮制技術(shù)》 教學(xué)課件大全
評論
0/150
提交評論