版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
2025計(jì)算機(jī)考研機(jī)器學(xué)習(xí)專項(xiàng)訓(xùn)練及答案考試時(shí)間:______分鐘總分:______分姓名:______一、選擇題(每小題2分,共20分。請將正確選項(xiàng)的字母填在題后的括號(hào)內(nèi))1.在機(jī)器學(xué)習(xí)的劃分中,根據(jù)實(shí)例與實(shí)例之間的關(guān)系進(jìn)行學(xué)習(xí)的屬于()。A.監(jiān)督學(xué)習(xí)B.無監(jiān)督學(xué)習(xí)C.半監(jiān)督學(xué)習(xí)D.強(qiáng)化學(xué)習(xí)2.下列關(guān)于“過擬合”描述錯(cuò)誤的是()。A.模型對訓(xùn)練數(shù)據(jù)學(xué)習(xí)得太好,但也學(xué)習(xí)到了數(shù)據(jù)中的噪聲B.模型在訓(xùn)練集上的誤差很小,但在測試集上的誤差很大C.通常由模型復(fù)雜度過低導(dǎo)致D.解決方法包括增加訓(xùn)練數(shù)據(jù)、正則化等3.在邏輯回歸模型中,輸出結(jié)果通常被解釋為()。A.屬于某個(gè)類別的概率B.屬于某個(gè)類別的確定性標(biāo)簽C.數(shù)據(jù)點(diǎn)的特征向量D.模型的參數(shù)權(quán)重4.決策樹算法在構(gòu)建過程中,常用的選擇分裂屬性的標(biāo)準(zhǔn)有信息增益、增益率等,這些標(biāo)準(zhǔn)主要目的是()。A.減小樹的深度B.增加樹的復(fù)雜度C.提高模型在訓(xùn)練數(shù)據(jù)上的分類準(zhǔn)確率D.減小決策樹的雜質(zhì)(不純度)5.支持向量機(jī)(SVM)通過尋找一個(gè)最優(yōu)超平面來實(shí)現(xiàn)分類,該超平面應(yīng)滿足的要求是()。A.將不同類別的數(shù)據(jù)點(diǎn)盡可能分開B.盡可能多地讓分類邊界穿過數(shù)據(jù)點(diǎn)C.使分類邊界距離最近的訓(xùn)練數(shù)據(jù)點(diǎn)最近D.使模型在訓(xùn)練數(shù)據(jù)上的預(yù)測誤差最小6.K近鄰(KNN)算法在分類時(shí),對于待分類樣本,最終類別決策通常采用()方式。A.絕對多數(shù)投票B.簡單平均所有近鄰的類別C.基于距離加權(quán)投票D.使用距離倒數(shù)作為權(quán)重進(jìn)行加權(quán)投票7.在進(jìn)行數(shù)據(jù)標(biāo)準(zhǔn)化(Z-scorenormalization)時(shí),某個(gè)特征的原始值為x,其標(biāo)準(zhǔn)化后的值為z,則z的計(jì)算公式通常為()。A.z=(x-μ)/σB.z=(x-μ)*σC.z=x/(μ+σ)D.z=μ/x+σ8.K-Means聚類算法是一種典型的()聚類方法。A.劃分基尼系數(shù)最小化B.譜聚類C.層次聚類D.劃分9.主成分分析(PCA)的主要目的是()。A.對數(shù)據(jù)進(jìn)行分類B.對數(shù)據(jù)進(jìn)行聚類C.降低數(shù)據(jù)的維度,同時(shí)保留盡可能多的原始數(shù)據(jù)信息D.對數(shù)據(jù)進(jìn)行回歸預(yù)測10.交叉驗(yàn)證(Cross-Validation)方法中,k折交叉驗(yàn)證指的是將原始數(shù)據(jù)集隨機(jī)分成()個(gè)子集。A.1B.2C.kD.k+1二、簡答題(每小題5分,共25分)1.簡述樸素貝葉斯分類器的“樸素”體現(xiàn)在哪里?并說明其適用于哪些類型的數(shù)據(jù)或任務(wù)。2.簡述過擬合和欠擬合的區(qū)別,并分別提出一種解決這兩種問題的常用方法。3.什么是混淆矩陣?請列出其在二元分類問題中,準(zhǔn)確率(Accuracy)、精確率(Precision)、召回率(Recall)的計(jì)算公式。4.簡述K-Means聚類算法的基本思想和工作流程。5.簡述監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)在定義、目標(biāo)和應(yīng)用場景上的主要區(qū)別。三、算法設(shè)計(jì)/分析題(每小題10分,共20分)1.假設(shè)我們使用決策樹進(jìn)行二元分類。請簡述在決策樹的構(gòu)建過程中,如何選擇最優(yōu)的分裂屬性(以信息增益為例進(jìn)行說明)。請給出信息增益的計(jì)算公式,并解釋信息增益的含義。2.設(shè)想一個(gè)場景:你需要使用KNN算法對新的用戶購買傾向進(jìn)行預(yù)測(分類:傾向購買/不傾向購買)。請簡述你會(huì)如何進(jìn)行數(shù)據(jù)預(yù)處理?在預(yù)測新用戶類別時(shí),你需要執(zhí)行哪些步驟?并說明K值的選擇對預(yù)測結(jié)果可能產(chǎn)生什么影響。四、編程實(shí)現(xiàn)題(15分)(注:本部分不提供代碼,僅描述實(shí)現(xiàn)思路或要求)請描述如何使用Python中的scikit-learn庫實(shí)現(xiàn)一個(gè)邏輯回歸模型,用于對鳶尾花(Iris)數(shù)據(jù)集進(jìn)行分類。你需要包括以下步驟:1.加載鳶尾花數(shù)據(jù)集。2.對數(shù)據(jù)進(jìn)行探索性分析(例如,查看數(shù)據(jù)形狀、前幾行數(shù)據(jù)、各特征描述性統(tǒng)計(jì))。3.分割數(shù)據(jù)集為訓(xùn)練集和測試集。4.創(chuàng)建邏輯回歸分類器實(shí)例,并進(jìn)行訓(xùn)練。5.使用訓(xùn)練好的模型對測試集進(jìn)行預(yù)測,并計(jì)算模型的準(zhǔn)確率。五、綜合應(yīng)用題(20分)假設(shè)你是一名數(shù)據(jù)分析師,需要對某城市共享單車的使用數(shù)據(jù)進(jìn)行建模分析。數(shù)據(jù)包含用戶年齡、性別、使用時(shí)長、天氣狀況、是否會(huì)員等多個(gè)特征。目標(biāo)是構(gòu)建一個(gè)模型,預(yù)測用戶下一次使用單車的時(shí)長是否會(huì)超過某個(gè)閾值(例如,10分鐘),以幫助公司制定運(yùn)營策略。請簡述你會(huì)如何針對這個(gè)任務(wù)進(jìn)行:1.問題定義與數(shù)據(jù)理解。2.數(shù)據(jù)預(yù)處理(至少列舉三種可能需要進(jìn)行的預(yù)處理步驟)。3.特征工程(至少提出兩種可能的特征工程思路)。4.選擇合適的機(jī)器學(xué)習(xí)模型進(jìn)行訓(xùn)練和評估(說明選擇理由)。5.簡述你會(huì)如何評估模型的性能,并解釋評估指標(biāo)的選擇依據(jù)。試卷答案一、選擇題1.B解析:無監(jiān)督學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種,其目標(biāo)是從數(shù)據(jù)中發(fā)現(xiàn)隱藏的結(jié)構(gòu)或模式,而不需要預(yù)先標(biāo)記的訓(xùn)練實(shí)例。根據(jù)實(shí)例與實(shí)例之間的關(guān)系進(jìn)行學(xué)習(xí),正是無監(jiān)督學(xué)習(xí)的特點(diǎn),例如聚類算法就是基于這種關(guān)系。2.C解析:過擬合是指模型學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)中的噪聲和細(xì)節(jié),導(dǎo)致在訓(xùn)練集上表現(xiàn)很好,但在未見過的測試數(shù)據(jù)上表現(xiàn)差。過擬合通常由模型復(fù)雜度過高或訓(xùn)練數(shù)據(jù)量不足導(dǎo)致。解決方法包括增加數(shù)據(jù)、正則化、簡化模型等。選項(xiàng)C錯(cuò)誤,因?yàn)檫^擬合通常由模型復(fù)雜度過高導(dǎo)致。3.A解析:邏輯回歸模型輸出的是概率值,表示樣本屬于正類(通常為1)的概率。這個(gè)概率是模型預(yù)測的核心結(jié)果,常用于分類決策。4.D解析:決策樹構(gòu)建的目標(biāo)是創(chuàng)建一個(gè)能夠良好區(qū)分不同類別數(shù)據(jù)的決策模型。選擇分裂屬性的標(biāo)準(zhǔn),如信息增益、增益率等,都是為了衡量分裂后子節(jié)點(diǎn)的不純度降低程度,即選擇能最大程度地“純化”節(jié)點(diǎn)的屬性作為分裂點(diǎn),從而構(gòu)建出更有效的決策樹。5.A解析:SVM的核心思想是找到一個(gè)最優(yōu)的超平面,該超平面能夠?qū)⒉煌悇e的數(shù)據(jù)點(diǎn)盡可能分開,并且距離分類邊界最近的數(shù)據(jù)點(diǎn)(支持向量)最遠(yuǎn),從而保證模型的泛化能力。6.C解析:KNN算法在分類時(shí),對于一個(gè)新的待分類樣本,首先計(jì)算它與訓(xùn)練集中所有樣本的距離,找出距離最近的K個(gè)鄰居。最終的分類決策通常采用“絕對多數(shù)投票”方式,即這K個(gè)鄰居中哪個(gè)類別出現(xiàn)次數(shù)最多,新樣本就歸為該類別。選項(xiàng)C描述的是加權(quán)投票,權(quán)重通常與距離成反比,但基礎(chǔ)是找到K個(gè)最近鄰。7.A解析:數(shù)據(jù)標(biāo)準(zhǔn)化(Z-scorenormalization)是將數(shù)據(jù)按其均值(μ)進(jìn)行中心化,再按其標(biāo)準(zhǔn)差(σ)進(jìn)行縮放的過程。公式z=(x-μ)/σ正是標(biāo)準(zhǔn)化的標(biāo)準(zhǔn)計(jì)算方法,其中x是原始特征值,z是標(biāo)準(zhǔn)化后的值。8.D解析:K-Means聚類算法是一種基于劃分(Partitioning)的策略的聚類方法。它將數(shù)據(jù)集劃分為若干個(gè)互不重疊的簇,每個(gè)簇由其簇內(nèi)所有數(shù)據(jù)的均值(質(zhì)心)代表,目標(biāo)是最小化簇內(nèi)數(shù)據(jù)點(diǎn)到簇均心的距離平方和。9.C解析:主成分分析(PCA)是一種降維技術(shù),其主要目標(biāo)是將高維數(shù)據(jù)投影到低維空間,同時(shí)盡可能保留原始數(shù)據(jù)中的變異信息(方差)。通過找到數(shù)據(jù)方差最大的方向(主成分),并進(jìn)行線性變換,實(shí)現(xiàn)降維。10.C解析:k折交叉驗(yàn)證(k-foldcross-validation)是將n個(gè)訓(xùn)練樣本隨機(jī)分成k個(gè)大小相等的子集(稱為“折”或“folds”)。每次用其中的k-1折作為訓(xùn)練集,剩下的1折作為測試集,重復(fù)k次,每次選擇不同的折作為測試集。最終模型性能是k次評估結(jié)果的平均值。二、簡答題1.樸素貝葉斯分類器的“樸素”體現(xiàn)在其假設(shè)特征之間相互獨(dú)立。即假設(shè)一個(gè)樣本的各個(gè)特征之間是相互無關(guān)的,無論其他特征取什么值,某個(gè)特定特征的條件概率只依賴于該特征的當(dāng)前值。這個(gè)假設(shè)大大簡化了計(jì)算,但在現(xiàn)實(shí)世界中,特征之間往往存在復(fù)雜的依賴關(guān)系。優(yōu)點(diǎn)是計(jì)算簡單、高效,尤其適用于文本分類等高維數(shù)據(jù)。2.過擬合:模型在訓(xùn)練集上表現(xiàn)完美,但在測試集上表現(xiàn)差。原因:模型過于復(fù)雜,學(xué)習(xí)到了訓(xùn)練數(shù)據(jù)中的噪聲。解決方法:①減少模型復(fù)雜度(如降低決策樹深度、減少SVM核函數(shù)復(fù)雜度);②增加訓(xùn)練數(shù)據(jù)量;③使用正則化技術(shù)(如L1、L2正則化);④使用交叉驗(yàn)證選擇最佳參數(shù)。欠擬合:模型過于簡單,未能捕捉到數(shù)據(jù)中的基本模式,導(dǎo)致在訓(xùn)練集和測試集上表現(xiàn)都不好。原因:模型復(fù)雜度不夠,無法學(xué)習(xí)到數(shù)據(jù)應(yīng)有的規(guī)律。解決方法:①增加模型復(fù)雜度(如增加決策樹深度、使用更復(fù)雜的核函數(shù));②減少特征選擇,保留更多相關(guān)特征;③減少正則化強(qiáng)度。3.混淆矩陣是用于描述分類模型預(yù)測結(jié)果與實(shí)際真實(shí)標(biāo)簽之間關(guān)系的二維矩陣。在二元分類問題中,通常定義:真實(shí)正類(ActualPositive):樣本真實(shí)標(biāo)簽為正類。真實(shí)負(fù)類(ActualNegative):樣本真實(shí)標(biāo)簽為負(fù)類。預(yù)測正類(PredictedPositive):模型預(yù)測樣本為正類。預(yù)測負(fù)類(PredictedNegative):模型預(yù)測樣本為負(fù)類。矩陣的四個(gè)格通常表示為:TP(TruePositives):真實(shí)為正,預(yù)測為正。TN(TrueNegatives):真實(shí)為負(fù),預(yù)測為負(fù)。FP(FalsePositives):真實(shí)為負(fù),預(yù)測為正。(TypeIError)FN(FalseNegatives):真實(shí)為正,預(yù)測為負(fù)。(TypeIIError)計(jì)算公式:準(zhǔn)確率(Accuracy)=(TP+TN)/(TP+TN+FP+FN)精確率(Precision)=TP/(TP+FP)召回率(Recall)=TP/(TP+FN)4.K-Means聚類算法的基本思想是將數(shù)據(jù)點(diǎn)劃分為K個(gè)簇,使得簇內(nèi)數(shù)據(jù)點(diǎn)之間的距離最小,而簇間數(shù)據(jù)點(diǎn)之間的距離最大。工作流程:1.隨機(jī)選擇K個(gè)數(shù)據(jù)點(diǎn)作為初始聚類中心。2.計(jì)算每個(gè)數(shù)據(jù)點(diǎn)與所有聚類中心的距離,將每個(gè)數(shù)據(jù)點(diǎn)分配給距離最近的聚類中心,形成K個(gè)簇。3.對每個(gè)簇,計(jì)算簇內(nèi)所有數(shù)據(jù)點(diǎn)的均值,并將該均值作為新的聚類中心。4.重復(fù)步驟2和步驟3,直到聚類中心不再發(fā)生變化,或者達(dá)到預(yù)設(shè)的迭代次數(shù)上限。最終每個(gè)數(shù)據(jù)點(diǎn)所屬的簇即為聚類結(jié)果。5.監(jiān)督學(xué)習(xí):需要使用帶有標(biāo)簽(即“監(jiān)督”)的訓(xùn)練數(shù)據(jù)。目標(biāo)是根據(jù)輸入特征預(yù)測輸出標(biāo)簽(分類或回歸)。學(xué)習(xí)過程通過最小化預(yù)測誤差來調(diào)整模型參數(shù)。常用于預(yù)測、分類等任務(wù)。無監(jiān)督學(xué)習(xí):使用沒有標(biāo)簽的原始數(shù)據(jù)。目標(biāo)是在數(shù)據(jù)中發(fā)現(xiàn)隱藏的結(jié)構(gòu)、模式或關(guān)系(如聚類、降維)。學(xué)習(xí)過程不依賴于預(yù)先定義的標(biāo)簽。常用于探索性數(shù)據(jù)分析、數(shù)據(jù)挖掘等任務(wù)。三、算法設(shè)計(jì)/分析題1.在決策樹構(gòu)建過程中,選擇最優(yōu)分裂屬性是為了確保每次分裂都能最大程度地提高子節(jié)點(diǎn)數(shù)據(jù)的純度(或降低不純度),從而構(gòu)建出更小的樹,并提高模型的預(yù)測能力。以信息增益(InformationGain)為例:*計(jì)算當(dāng)前節(jié)點(diǎn)(父節(jié)點(diǎn))的熵(Entropy):Entropy(S)=-Σ[p(i)*log2(p(i))],其中p(i)是節(jié)點(diǎn)S中屬于第i類的樣本比例。*對于每個(gè)候選分裂屬性A,根據(jù)屬性A的取值將節(jié)點(diǎn)S劃分成若干個(gè)子節(jié)點(diǎn)。計(jì)算每個(gè)子節(jié)點(diǎn)的熵,并根據(jù)子節(jié)點(diǎn)包含的樣本比例加權(quán)平均,得到分裂屬性A對應(yīng)的信息增益:InfoGain(S,A)=Entropy(S)-Σ[(|Sv|/|S|)*Entropy(Sv)],其中Sv是節(jié)點(diǎn)S中屬性A取值為v的子節(jié)點(diǎn),|Sv|是該子節(jié)點(diǎn)的樣本數(shù),|S|是父節(jié)點(diǎn)的樣本總數(shù)。*選擇信息增益最大的屬性A作為當(dāng)前節(jié)點(diǎn)的分裂屬性。信息增益表示通過屬性A對數(shù)據(jù)進(jìn)行分類后,數(shù)據(jù)純度降低的程度,即分類效果的提升程度。選擇信息增益最大的屬性,意味著這次分裂能最好地分離不同類別的數(shù)據(jù)。2.使用KNN算法預(yù)測用戶購買傾向:*數(shù)據(jù)預(yù)處理:1.處理缺失值:填充或刪除含有缺失值的記錄。2.數(shù)據(jù)類型轉(zhuǎn)換:確保數(shù)值型特征(如年齡、使用時(shí)長)和類別型特征(如性別、天氣狀況)類型正確。3.類別特征編碼:對性別、天氣狀況等類別型特征進(jìn)行獨(dú)熱編碼(One-HotEncoding)或標(biāo)簽編碼(LabelEncoding)。4.特征縮放:對數(shù)值型特征進(jìn)行標(biāo)準(zhǔn)化(如Z-score)或歸一化(如Min-MaxScaling),因?yàn)镵NN算法對距離計(jì)算敏感,特征的尺度不同會(huì)影響距離結(jié)果。*預(yù)測步驟:1.對于一個(gè)新的用戶數(shù)據(jù)點(diǎn),計(jì)算它與訓(xùn)練集中所有用戶數(shù)據(jù)點(diǎn)在所有特征上的距離(常用歐氏距離)。2.找出距離該新數(shù)據(jù)點(diǎn)最近的K個(gè)訓(xùn)練用戶數(shù)據(jù)點(diǎn)(即K個(gè)最近鄰)。3.確定這K個(gè)最近鄰用戶中,“傾向購買”和“不傾向購買”的樣本數(shù)量。4.采用“多數(shù)投票”規(guī)則:如果“傾向購買”的數(shù)量多于“不傾向購買”,則預(yù)測新用戶為“傾向購買”;反之,預(yù)測為“不傾向購買”。如果數(shù)量相同,可按需設(shè)定規(guī)則(如預(yù)測為“不傾向購買”)。*K值選擇影響:K值的選擇對預(yù)測結(jié)果至關(guān)重要。較小的K值意味著模型對局部數(shù)據(jù)變化更敏感,可能導(dǎo)致模型不穩(wěn)定,容易過擬合;較大的K值會(huì)使模型更平滑,泛化能力可能更強(qiáng),但可能導(dǎo)致模型對局部模式不敏感,欠擬合。需要通過交叉驗(yàn)證等方法在訓(xùn)練集上選擇合適的K值。四、編程實(shí)現(xiàn)題描述實(shí)現(xiàn)思路:1.加載鳶尾花數(shù)據(jù)集:使用scikit-learn的`datasets.load_iris()`函數(shù)獲取數(shù)據(jù)集,其中`data`屬性包含特征數(shù)據(jù),`target`屬性包含標(biāo)簽。2.數(shù)據(jù)探索性分析:使用pandas庫(如果允許)或直接操作數(shù)組,查看數(shù)據(jù)形狀(`data.shape`),獲取前幾行數(shù)據(jù)(`data[:5]`或`target[:5]`),計(jì)算各特征的描述性統(tǒng)計(jì)量(如`data.mean()`,`data.std()`)。3.分割數(shù)據(jù)集:使用`sklearn.model_selection.train_test_split()`函數(shù),將`data`和`target`按一定比例(如70%訓(xùn)練集,30%測試集)隨機(jī)分割。4.創(chuàng)建并訓(xùn)練模型:實(shí)例化`sklearn.linear_model.LogisticRegression()`,調(diào)用其`fit(X_train,y_train)`方法,使用訓(xùn)練集數(shù)據(jù)進(jìn)行模型訓(xùn)練。5.預(yù)測與評估:使用訓(xùn)練好的模型實(shí)例的`predict(X_test)`方法,對測試集進(jìn)行預(yù)測。然后計(jì)算準(zhǔn)確率,可以使用`sklearn.metrics.accuracy_score(y_test,y_pred)`或手動(dòng)計(jì)算`np.mean(y_test==y_pred)`。五、綜合應(yīng)用題1.問題定義與數(shù)據(jù)理解:明確目標(biāo)是預(yù)測用戶下一次使用單車時(shí)長是否超過10分鐘(二分類問題:是/否)。理解數(shù)據(jù)集包含的特征及其含義(用戶屬性、使用行為、環(huán)境因素等),了解數(shù)據(jù)的量級和基本分布。2.數(shù)據(jù)預(yù)處理:*處理缺失值:根據(jù)缺失比例和特征重要性決定填充(均值、中位數(shù)、眾數(shù))或刪除。*處理異常值:識(shí)別并處理數(shù)值型特征的極端異常值。*類別特征編碼:對性別、天氣狀況等進(jìn)行獨(dú)熱編碼或標(biāo)簽編碼。*特征縮放:對數(shù)值型特征(如年齡
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 鋪瓷磚協(xié)議書范本
- 錦繡園出售協(xié)議書
- 門窗安裝易協(xié)議書
- 鑄銅件技術(shù)協(xié)議書
- 門面合伙合同協(xié)議
- 收并購中介協(xié)議書
- 無債務(wù)協(xié)議書范本
- 陪酒簽合同寫協(xié)議
- 撞人私下簽協(xié)議書
- 員工購股份協(xié)議書
- 2026年南京交通職業(yè)技術(shù)學(xué)院單招職業(yè)適應(yīng)性考試題庫帶答案詳解
- 2026年泰安銀行股份有限公司校園招聘(70人)筆試備考題庫帶答案解析
- 足球D級教練員導(dǎo)師課件
- 《鷸》分鏡頭腳本
- 結(jié)構(gòu)加固施工驗(yàn)收方案
- 小班美術(shù)活動(dòng)《漂亮的帽子》課件
- 礦山破碎設(shè)備安全操作規(guī)程
- 2024年全國職業(yè)院校技能大賽ZZ054 智慧物流作業(yè)賽項(xiàng)賽題第2套
- 《藥品質(zhì)量管理體系內(nèi)審員職業(yè)技能規(guī)范》
- 冶煉廠拆遷施工方案
- 谷物烘干機(jī)結(jié)構(gòu)設(shè)計(jì)
評論
0/150
提交評論