版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
AIGC提示詞項(xiàng)目1機(jī)械工業(yè)出版社《人工智能通識(shí)》配套資源制作:教材編寫(xiě)團(tuán)隊(duì)AIGC本課件為《人工智能通識(shí)(AIGC版)》配套教學(xué)資源,由編寫(xiě)團(tuán)隊(duì)精心打造。為便于教學(xué)使用,團(tuán)隊(duì)同步提供了豐富的輔助材料,涵蓋微課視頻、教學(xué)課件、實(shí)訓(xùn)手冊(cè)、習(xí)題答案、課程標(biāo)準(zhǔn)及程序源代碼等。同時(shí),教材配套超星教學(xué)示范包,支持一鍵克隆為網(wǎng)絡(luò)在線課程,助力高效開(kāi)展線上線下混合式教學(xué)。歡迎聯(lián)系出版方訂購(gòu)使用。
書(shū)名:《人工智能通識(shí)(AIGC版)》書(shū)號(hào)
:978-7-111-79447-9出版社:機(jī)械工業(yè)出版社主編:藍(lán)永健、吳秀紅、羅智聰副主編:鄧愛(ài)玲、王有銘、葉菊、周弢PARTTWO相關(guān)知識(shí)2.相關(guān)知識(shí)思維導(dǎo)圖2.相關(guān)知識(shí)——大模型大模型人工智能大模型(簡(jiǎn)稱“大模型”)是指由人工神經(jīng)網(wǎng)絡(luò)構(gòu)建的一類(lèi)具有大量參數(shù)的人工智能模型。人工智能大模型通常先通過(guò)自監(jiān)督學(xué)習(xí)或半監(jiān)督學(xué)習(xí)在海量數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,然后通過(guò)指令微調(diào)和人類(lèi)對(duì)齊等方法進(jìn)一步優(yōu)化其性能和能力。大模型具有參數(shù)量大、訓(xùn)練數(shù)據(jù)大、計(jì)算資源大等特點(diǎn),擁有解決通用任務(wù)、遵循人類(lèi)指令、進(jìn)行復(fù)雜推理等能力。人工智能大模型的主要類(lèi)別包括:大語(yǔ)言模型、視覺(jué)大模型、多模態(tài)大模型以及基礎(chǔ)科學(xué)大模型等。目前,大模型已在多個(gè)領(lǐng)域得到廣泛應(yīng)用,包括搜索引擎、智能體、相關(guān)垂直產(chǎn)業(yè)及基礎(chǔ)科學(xué)等領(lǐng)域,推動(dòng)了各行業(yè)的智能化發(fā)展。2.相關(guān)知識(shí)——大模型視覺(jué)大模型視覺(jué)大模型則主要應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域,負(fù)責(zé)處理和分析圖像或視頻數(shù)據(jù)。通過(guò)對(duì)大量視覺(jué)數(shù)據(jù)的訓(xùn)練,視覺(jué)大模型能夠完成圖像分類(lèi)、目標(biāo)檢測(cè)、圖像生成等任務(wù)。隨著Transformer架構(gòu)的引入,模型如VisionTransformer(ViT)取得了顯著的成果。早期的視覺(jué)模型多基于卷積神經(jīng)網(wǎng)絡(luò)(CNN),如ResNet等,但隨著技術(shù)的進(jìn)步,基于自注意力機(jī)制的視覺(jué)(大)模型逐漸成為主流。視覺(jué)大模型被廣泛應(yīng)用于自動(dòng)駕駛、安防監(jiān)控、人臉識(shí)別、醫(yī)療影像分析等領(lǐng)域。2024年2月,美國(guó)OpenAI發(fā)布了AI文生視頻大模型“Sora”,它能夠根據(jù)用戶的文本描述生成長(zhǎng)達(dá)60秒1080P高質(zhì)量的視頻,其中包含精細(xì)復(fù)雜的場(chǎng)景、生動(dòng)的角色表情以及復(fù)雜的鏡頭運(yùn)動(dòng),如圖2-1所示。2.相關(guān)知識(shí)——大模型多模態(tài)大模型多模態(tài)大模型則能夠同時(shí)處理和理解多種類(lèi)型的數(shù)據(jù),如文本、圖像和音頻,從而實(shí)現(xiàn)跨模態(tài)的信息融合與生成。這類(lèi)模型在圖文生成、視頻生成等任務(wù)中表現(xiàn)突出,能夠打破單一模態(tài)的局限,實(shí)現(xiàn)更加豐富的交互與創(chuàng)作。OpenAI的CLIP模型就是一個(gè)典型的多模態(tài)大模型,通過(guò)聯(lián)合訓(xùn)練圖像和文本,成功實(shí)現(xiàn)了跨模態(tài)的信息對(duì)齊。多模態(tài)大模型的應(yīng)用涵蓋了內(nèi)容創(chuàng)作、智能搜索、輔助醫(yī)療等多個(gè)領(lǐng)域。2.相關(guān)知識(shí)——大模型基礎(chǔ)科學(xué)大模型基礎(chǔ)科學(xué)大模型則主要應(yīng)用于生物、化學(xué)、物理和氣象等基礎(chǔ)科學(xué)領(lǐng)域,旨在通過(guò)學(xué)習(xí)大規(guī)模科學(xué)數(shù)據(jù),輔助科學(xué)研究和實(shí)驗(yàn)。這些模型能夠在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)、化學(xué)反應(yīng)模擬、氣象預(yù)測(cè)等領(lǐng)域發(fā)揮重要作用,為科研工作提供強(qiáng)有力的支持。DeepMind的AlphaFold模型在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)方面取得了重大突破,而在化學(xué)反應(yīng)模擬領(lǐng)域,諸如OpenAI的DALL·EChemistry等模型也展示了巨大潛力?;A(chǔ)科學(xué)大模型的應(yīng)用推動(dòng)了藥物研發(fā)、材料科學(xué)和氣象預(yù)測(cè)等前沿科學(xué)研究的發(fā)展。2.相關(guān)知識(shí)——大語(yǔ)言模型大語(yǔ)言模型LLM大語(yǔ)言模型(LargeLanguageModel,LLM)是基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)模型,通過(guò)海量文本數(shù)據(jù)訓(xùn)練,能夠理解和生成符合人類(lèi)語(yǔ)言習(xí)慣的文本內(nèi)容。確切地說(shuō),大語(yǔ)言模型是一種用統(tǒng)計(jì)方法來(lái)預(yù)測(cè)句子或文檔中一系列單詞出現(xiàn)的可能性的機(jī)器學(xué)習(xí)模型。因此,語(yǔ)言模型本質(zhì)上是要模擬人類(lèi)學(xué)習(xí)語(yǔ)言的過(guò)程。2.相關(guān)知識(shí)——大語(yǔ)言模型大語(yǔ)言模型LLM大語(yǔ)言模型的優(yōu)點(diǎn)有:1)上下文理解能力強(qiáng)能夠理解復(fù)雜的語(yǔ)義和語(yǔ)境,這使得它們能夠產(chǎn)生更準(zhǔn)確、更連貫的回答。2)語(yǔ)言生成能力強(qiáng)可以生成更自然、更流利的語(yǔ)言,減少生成輸出時(shí)的錯(cuò)誤。3)學(xué)習(xí)能力強(qiáng)大語(yǔ)言模型可以從大量的數(shù)據(jù)中學(xué)習(xí),并利用學(xué)到的知識(shí)和模式來(lái)提供更精準(zhǔn)的答案和預(yù)測(cè)。這使得它們?cè)诮鉀Q復(fù)雜問(wèn)題和應(yīng)對(duì)新的場(chǎng)景時(shí)表現(xiàn)更加出色。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)在應(yīng)用層面,需要設(shè)計(jì)算法、訓(xùn)練模型、部署模型以及開(kāi)發(fā)用戶接口。AI框架如TensorFlow和PyTorch提供了編程語(yǔ)言和庫(kù)來(lái)構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。數(shù)據(jù)處理工具如Pandas和NumPy則用于數(shù)據(jù)的預(yù)處理和分析。在硬件驅(qū)動(dòng)層面,GPU和CPU的驅(qū)動(dòng)程序確保硬件與軟件的高效交互,而專用硬件如TPU和FPGA的驅(qū)動(dòng)則為特定AI任務(wù)提供加速。硬件方面,CPU和GPU是執(zhí)行計(jì)算任務(wù)的核心,而TPU和FPGA等專用硬件則提供額外的計(jì)算能力。存儲(chǔ)設(shè)備如SSD和HDD用于數(shù)據(jù)存儲(chǔ),網(wǎng)絡(luò)硬件則支持?jǐn)?shù)據(jù)傳輸和模型部署。軟件層面,操作系統(tǒng)如Linux和Windows提供運(yùn)行環(huán)境和管理資源。數(shù)據(jù)庫(kù)軟件管理數(shù)據(jù)存儲(chǔ),虛擬化技術(shù)如Docker和Kubernetes簡(jiǎn)化應(yīng)用部署。云服務(wù)平臺(tái)提供計(jì)算資源,支持大規(guī)模模型訓(xùn)練和部署。這些技術(shù)、硬件和軟件共同構(gòu)成了人工智能大模型的完整生態(tài)系統(tǒng)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型產(chǎn)品在實(shí)際應(yīng)用中,用戶要通過(guò)人工智能工具來(lái)使用大語(yǔ)言模型,目前,國(guó)內(nèi)外主流的大語(yǔ)言模型工具對(duì)比分析如表2-1所示。它們具備文本生成、語(yǔ)言理解、知識(shí)問(wèn)答、邏輯推理等多種能力,可廣泛應(yīng)用于寫(xiě)作輔助、內(nèi)容創(chuàng)作、智能客服等多個(gè)領(lǐng)域。大模型名稱國(guó)家/地區(qū)主要特點(diǎn)ChatGPT美國(guó)生成式對(duì)話、知識(shí)庫(kù)更新至2023年、支持代碼生成Gemini美國(guó)多模態(tài)圖文理解、高效推理、支持代碼/圖像/視頻生成LLaMA美國(guó)Meta(Facebook)開(kāi)源的系列大語(yǔ)言模型,如LLaMA-2、LLaMA-3,推動(dòng)開(kāi)源AI發(fā)展。DeepSeek中國(guó)復(fù)雜推理能力、多模態(tài)融合、實(shí)時(shí)信息整合文心一言中國(guó)中文語(yǔ)義理解、多模型生成、搜索數(shù)據(jù)反哺Kimi中國(guó)超長(zhǎng)文本處理、多模融合、學(xué)術(shù)場(chǎng)景適配豆包中國(guó)豆包大模型,原名“云雀”,是字節(jié)跳動(dòng)發(fā)布的大模型。多模型交互、成本控制、生態(tài)整合通義中國(guó)阿里云推出的語(yǔ)言模型,企業(yè)級(jí)服務(wù)優(yōu)化、多語(yǔ)言支持、云原生集成訊飛星火中國(guó)科大訊飛推出的新一代認(rèn)知智能大模型,語(yǔ)音交互優(yōu)勢(shì)、教育醫(yī)療場(chǎng)景適配、知識(shí)庫(kù)實(shí)時(shí)更新騰訊混元中國(guó)多模態(tài)理解(文本/圖片/視頻)、社交游戲適配、實(shí)時(shí)信息處理華為盤(pán)古中國(guó)科學(xué)計(jì)算優(yōu)化、工業(yè)場(chǎng)景適配、多模態(tài)融合(文本/視覺(jué)/傳感器數(shù)據(jù))2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。1)能源消耗大語(yǔ)言模型的訓(xùn)練和運(yùn)行需要巨大的能源消耗,這不僅增加了成本,還對(duì)環(huán)境造成顯著影響。例如,訓(xùn)練GPT-3的能耗約為1300兆瓦時(shí)(MWh),相當(dāng)于120個(gè)美國(guó)家庭一年的用電量(MITTechnologyReview,2020)。谷歌的研究顯示,訓(xùn)練一個(gè)BERT-large模型會(huì)產(chǎn)生約1400磅二氧化碳排放,相當(dāng)于一次跨美國(guó)飛行的碳排放(來(lái)源:Strubelletal,2019)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。2)大量訓(xùn)練時(shí)間大語(yǔ)言模型的訓(xùn)練需要極長(zhǎng)的計(jì)算時(shí)間,依賴高性能計(jì)算集群。例如,Meta的LLaMA-2(70B參數(shù))訓(xùn)練耗時(shí)約1,720,000GPU小時(shí),相當(dāng)于使用1000塊A100GPU連續(xù)運(yùn)行71天(來(lái)源:MetaAI,2023)。OpenAI訓(xùn)練GPT-3時(shí)使用了數(shù)千塊V100GPU,耗時(shí)數(shù)月。這種長(zhǎng)時(shí)間訓(xùn)練不僅延遲了模型迭代速度,還限制了資源有限的研究機(jī)構(gòu)參與競(jìng)爭(zhēng)。盡管分布式計(jì)算和硬件優(yōu)化(如TPU)可縮短時(shí)間,但超大規(guī)模模型的訓(xùn)練仍是一項(xiàng)耗時(shí)耗力的工程挑戰(zhàn)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。3)大模型幻覺(jué)大語(yǔ)言模型的“幻覺(jué)”(Hallucination)指生成與事實(shí)不符或無(wú)依據(jù)的內(nèi)容,這是其核心缺陷之一。例如,谷歌的Bard在2023年演示中錯(cuò)誤宣稱“詹姆斯·韋伯太空望遠(yuǎn)鏡拍攝了太陽(yáng)系外行星的首張照片”,實(shí)際該成果由歐洲南方天文臺(tái)完成,導(dǎo)致谷歌股價(jià)單日下跌7%(來(lái)源:Reuters,2023)。GPT-4在醫(yī)療領(lǐng)域也可能生成虛假診斷建議,如用戶提問(wèn)“如何治療罕見(jiàn)病X”,模型可能編造不存在的藥物名稱或療法?;糜X(jué)的根源在于模型通過(guò)概率生成文本,而非真正理解事實(shí)。2023年《Nature》研究指出,GPT-4在回答科學(xué)問(wèn)題時(shí)約20%的陳述包含事實(shí)性錯(cuò)誤。盡管可通過(guò)檢索增強(qiáng)生成(RAG)或?qū)崟r(shí)聯(lián)網(wǎng)驗(yàn)證緩解,但無(wú)法完全消除。當(dāng)前的技術(shù)只能減少大語(yǔ)言模型的“幻覺(jué)”,還不能完全消除大語(yǔ)言模型“幻覺(jué)”。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(1)小語(yǔ)言模型的內(nèi)涵小語(yǔ)言模型(SmallLanguageModel,SLM)是能夠處理、理解和生成自然語(yǔ)言內(nèi)容的人工智能模型。顧名思義,SLM的規(guī)模和范圍比大型語(yǔ)言模型小。就規(guī)模而言,SLM的參數(shù)范圍從幾百萬(wàn)到幾十億不等,而LLM則具有數(shù)千億甚至數(shù)萬(wàn)億參數(shù)。參數(shù)是模型在訓(xùn)練期間要學(xué)習(xí)的內(nèi)部變量,例如權(quán)重和偏差。這些參數(shù)會(huì)影響機(jī)器學(xué)習(xí)模型的行為和執(zhí)行方式。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(2)小語(yǔ)言模型的價(jià)值小語(yǔ)言模型具有諸多優(yōu)勢(shì),使其在特定場(chǎng)景下更具價(jià)值。它們對(duì)資源需求低,適合在移動(dòng)設(shè)備、邊緣設(shè)備等資源受限的環(huán)境中運(yùn)行。小語(yǔ)言模型的訓(xùn)練和部署成本低,性價(jià)比高。小語(yǔ)言模型響應(yīng)速度快,適合實(shí)時(shí)交互應(yīng)用。它們還可以在本地運(yùn)行,避免數(shù)據(jù)傳輸,從而更好地保護(hù)用戶隱私。小語(yǔ)言模型在特定領(lǐng)域經(jīng)過(guò)優(yōu)化后,能夠更高效地完成任務(wù)。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(3)小語(yǔ)言模型產(chǎn)品雖然較大的模型仍然是許多企業(yè)的技術(shù)選擇,但較小的模型正在迅速普及。以下是一些常見(jiàn)的小型語(yǔ)言模型:DistilBERT、Gemma、GPT-4omini、Granite、Llama、Ministral、Phi和CM-3B。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(1)AIGC概述人工智能內(nèi)容生成(AIGC,AI-GeneratedContent)是指利用深度學(xué)習(xí)模型(如GPT、StableDiffusion等)自動(dòng)生成文本、圖像、音頻、視頻等內(nèi)容的技術(shù)。其核心是基于大規(guī)模數(shù)據(jù)訓(xùn)練,模仿人類(lèi)創(chuàng)作模式,實(shí)現(xiàn)高效、多樣化的內(nèi)容生產(chǎn)。AIGC正重塑媒體、教育、娛樂(lè)等行業(yè),但也面臨版權(quán)、倫理等挑戰(zhàn),成為AI領(lǐng)域的重要發(fā)展方向。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(2)AIGC與大語(yǔ)言模型的關(guān)系A(chǔ)IGC是一個(gè)廣泛的概念,涵蓋文本、圖像、音頻、視頻等多種內(nèi)容的自動(dòng)生成,而大語(yǔ)言模型(LLM)是AIGC的核心技術(shù)之一,專注于文本生成與理解。例如,GPT-4、Claude等模型不僅能創(chuàng)作文章、代碼,還能驅(qū)動(dòng)聊天機(jī)器人、輔助決策。此外,多模態(tài)大模型(如GPT-4o、Gemini)進(jìn)一步融合文本與視覺(jué)、聽(tīng)覺(jué)能力,擴(kuò)展了AIGC的應(yīng)用場(chǎng)景。然而,兩者均面臨幻覺(jué)、版權(quán)和倫理問(wèn)題,需結(jié)合人類(lèi)監(jiān)督與合規(guī)框架以確保可靠性與安全性。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(3)AIGC分類(lèi)現(xiàn)階段國(guó)內(nèi)外AIGC多以單模型應(yīng)用的形式出現(xiàn),主要分為文本生成、圖像生成、視頻生成、音頻生成,其中文本生成成為其他內(nèi)容生成的基礎(chǔ)。
AIGC生成的繪圖作品某國(guó)內(nèi)AI工具生成的視頻2.相關(guān)知識(shí)——AIGC分類(lèi)文本生成文本生成(AITextGeneration),人工智能文本生成是使用人工智能(AI)算法和模型來(lái)生成模仿人類(lèi)書(shū)寫(xiě)內(nèi)容的文本。圖像生成圖像生成(AIImageGeneration),人工智能(AI)可用于生成非人類(lèi)藝術(shù)家作品的圖像。語(yǔ)音生成語(yǔ)音生成(AIAudioGeneration),AIGC的音頻生成技術(shù)可以分為兩類(lèi),分別是文本到語(yǔ)音合成和語(yǔ)音克隆。視頻生成視頻生成(AIVideoGeneration),AIGC已被用于視頻剪輯處理以生成預(yù)告片和宣傳視頻。2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則(1)提示詞的含義提示詞(Prompt)是用戶與人工智能系統(tǒng)交互時(shí)提供的初始輸入或引導(dǎo)性信息,它用于指導(dǎo)模型生成符合特定需求和預(yù)期的輸出。通過(guò)精心設(shè)計(jì)提示詞,可以更有效地利用AIGC技術(shù)來(lái)生成高質(zhì)量的內(nèi)容。它是幫助大模型“回憶”自己在預(yù)訓(xùn)練時(shí)學(xué)習(xí)到的知識(shí)。對(duì)于大模型來(lái)說(shuō),提示詞就是用戶的輸入,它可以是一個(gè)簡(jiǎn)單的問(wèn)題,一段較長(zhǎng)的文本,也可以是一組指令,這取決于用戶的具體需求。提示詞作為用戶與人工智能系統(tǒng)交互的核心指令,本質(zhì)上構(gòu)建了人機(jī)對(duì)話的語(yǔ)義通道。在AIGC(人工智能生成內(nèi)容)中,提示詞是用戶與AI模型交互的關(guān)鍵工具。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026山東淄博沂源縣事業(yè)單位招聘綜合類(lèi)崗位筆試備考試題及答案解析
- 2026青海西寧城西區(qū)西部礦業(yè)集團(tuán)有限公司黨務(wù)工作部門(mén)業(yè)務(wù)崗位選聘5人考試備考題庫(kù)及答案解析
- 2026 年中考化學(xué)考綱解讀精練試卷(附答案可下載)
- 2026中國(guó)電科十五所秋季校園招聘筆試參考題庫(kù)及答案解析
- 2026山東濟(jì)南市天橋區(qū)所屬事業(yè)單位招聘初級(jí)綜合類(lèi)崗位人員筆試參考題庫(kù)及答案解析
- 2026四川現(xiàn)代種業(yè)發(fā)展集團(tuán)成都農(nóng)業(yè)開(kāi)發(fā)有限公司社會(huì)化招聘5人筆試模擬試題及答案解析
- 2026年公共營(yíng)養(yǎng)師之三級(jí)營(yíng)養(yǎng)師考試題庫(kù)帶答案解析
- 培訓(xùn)機(jī)構(gòu)銷(xiāo)售上班制度
- 煤礦駕駛員培訓(xùn)制度
- 培訓(xùn)班教育教學(xué)管理制度
- CJ/T 120-2016給水涂塑復(fù)合鋼管
- 抹灰層陰陽(yáng)角方正度控制技術(shù)
- 中國(guó)特色社會(huì)主義知識(shí)點(diǎn)總結(jié)中職高考政治一輪復(fù)習(xí)
- 五年級(jí)數(shù)學(xué)下冊(cè)寒假作業(yè)每日一練
- 企業(yè)管理的基礎(chǔ)工作包括哪些內(nèi)容
- 學(xué)?!?530”安全教育記錄表(2024年秋季全學(xué)期)
- 鋁合金門(mén)窗工程技術(shù)規(guī)范
- 食材配送服務(wù)方案投標(biāo)文件(技術(shù)標(biāo))
- 室性心律失常
- 《2024消費(fèi)者金融知識(shí)學(xué)習(xí)偏好及行業(yè)宣教洞察報(bào)告》
- 橫穿公路管道施工方案
評(píng)論
0/150
提交評(píng)論