版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
AIGC提示詞項(xiàng)目1AIGCPARTTWO相關(guān)知識(shí)2.相關(guān)知識(shí)思維導(dǎo)圖2.相關(guān)知識(shí)——大模型大模型人工智能大模型(簡(jiǎn)稱“大模型”)是指由人工神經(jīng)網(wǎng)絡(luò)構(gòu)建的一類具有大量參數(shù)的人工智能模型。人工智能大模型通常先通過(guò)自監(jiān)督學(xué)習(xí)或半監(jiān)督學(xué)習(xí)在海量數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,然后通過(guò)指令微調(diào)和人類對(duì)齊等方法進(jìn)一步優(yōu)化其性能和能力。大模型具有參數(shù)量大、訓(xùn)練數(shù)據(jù)大、計(jì)算資源大等特點(diǎn),擁有解決通用任務(wù)、遵循人類指令、進(jìn)行復(fù)雜推理等能力。人工智能大模型的主要類別包括:大語(yǔ)言模型、視覺(jué)大模型、多模態(tài)大模型以及基礎(chǔ)科學(xué)大模型等。目前,大模型已在多個(gè)領(lǐng)域得到廣泛應(yīng)用,包括搜索引擎、智能體、相關(guān)垂直產(chǎn)業(yè)及基礎(chǔ)科學(xué)等領(lǐng)域,推動(dòng)了各行業(yè)的智能化發(fā)展。2.相關(guān)知識(shí)——大模型視覺(jué)大模型視覺(jué)大模型則主要應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域,負(fù)責(zé)處理和分析圖像或視頻數(shù)據(jù)。通過(guò)對(duì)大量視覺(jué)數(shù)據(jù)的訓(xùn)練,視覺(jué)大模型能夠完成圖像分類、目標(biāo)檢測(cè)、圖像生成等任務(wù)。隨著Transformer架構(gòu)的引入,模型如VisionTransformer(ViT)取得了顯著的成果。早期的視覺(jué)模型多基于卷積神經(jīng)網(wǎng)絡(luò)(CNN),如ResNet等,但隨著技術(shù)的進(jìn)步,基于自注意力機(jī)制的視覺(jué)(大)模型逐漸成為主流。視覺(jué)大模型被廣泛應(yīng)用于自動(dòng)駕駛、安防監(jiān)控、人臉識(shí)別、醫(yī)療影像分析等領(lǐng)域。2024年2月,美國(guó)OpenAI發(fā)布了AI文生視頻大模型“Sora”,它能夠根據(jù)用戶的文本描述生成長(zhǎng)達(dá)60秒1080P高質(zhì)量的視頻,其中包含精細(xì)復(fù)雜的場(chǎng)景、生動(dòng)的角色表情以及復(fù)雜的鏡頭運(yùn)動(dòng),如圖2-1所示。2.相關(guān)知識(shí)——大模型多模態(tài)大模型多模態(tài)大模型則能夠同時(shí)處理和理解多種類型的數(shù)據(jù),如文本、圖像和音頻,從而實(shí)現(xiàn)跨模態(tài)的信息融合與生成。這類模型在圖文生成、視頻生成等任務(wù)中表現(xiàn)突出,能夠打破單一模態(tài)的局限,實(shí)現(xiàn)更加豐富的交互與創(chuàng)作。OpenAI的CLIP模型就是一個(gè)典型的多模態(tài)大模型,通過(guò)聯(lián)合訓(xùn)練圖像和文本,成功實(shí)現(xiàn)了跨模態(tài)的信息對(duì)齊。多模態(tài)大模型的應(yīng)用涵蓋了內(nèi)容創(chuàng)作、智能搜索、輔助醫(yī)療等多個(gè)領(lǐng)域。2.相關(guān)知識(shí)——大模型基礎(chǔ)科學(xué)大模型基礎(chǔ)科學(xué)大模型則主要應(yīng)用于生物、化學(xué)、物理和氣象等基礎(chǔ)科學(xué)領(lǐng)域,旨在通過(guò)學(xué)習(xí)大規(guī)??茖W(xué)數(shù)據(jù),輔助科學(xué)研究和實(shí)驗(yàn)。這些模型能夠在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)、化學(xué)反應(yīng)模擬、氣象預(yù)測(cè)等領(lǐng)域發(fā)揮重要作用,為科研工作提供強(qiáng)有力的支持。DeepMind的AlphaFold模型在蛋白質(zhì)結(jié)構(gòu)預(yù)測(cè)方面取得了重大突破,而在化學(xué)反應(yīng)模擬領(lǐng)域,諸如OpenAI的DALL·EChemistry等模型也展示了巨大潛力?;A(chǔ)科學(xué)大模型的應(yīng)用推動(dòng)了藥物研發(fā)、材料科學(xué)和氣象預(yù)測(cè)等前沿科學(xué)研究的發(fā)展。2.相關(guān)知識(shí)——大語(yǔ)言模型大語(yǔ)言模型LLM大語(yǔ)言模型(LargeLanguageModel,LLM)是基于深度學(xué)習(xí)的自然語(yǔ)言處理(NLP)模型,通過(guò)海量文本數(shù)據(jù)訓(xùn)練,能夠理解和生成符合人類語(yǔ)言習(xí)慣的文本內(nèi)容。確切地說(shuō),大語(yǔ)言模型是一種用統(tǒng)計(jì)方法來(lái)預(yù)測(cè)句子或文檔中一系列單詞出現(xiàn)的可能性的機(jī)器學(xué)習(xí)模型。因此,語(yǔ)言模型本質(zhì)上是要模擬人類學(xué)習(xí)語(yǔ)言的過(guò)程。2.相關(guān)知識(shí)——大語(yǔ)言模型大語(yǔ)言模型LLM大語(yǔ)言模型的優(yōu)點(diǎn)有:1)上下文理解能力強(qiáng)能夠理解復(fù)雜的語(yǔ)義和語(yǔ)境,這使得它們能夠產(chǎn)生更準(zhǔn)確、更連貫的回答。2)語(yǔ)言生成能力強(qiáng)可以生成更自然、更流利的語(yǔ)言,減少生成輸出時(shí)的錯(cuò)誤。3)學(xué)習(xí)能力強(qiáng)大語(yǔ)言模型可以從大量的數(shù)據(jù)中學(xué)習(xí),并利用學(xué)到的知識(shí)和模式來(lái)提供更精準(zhǔn)的答案和預(yù)測(cè)。這使得它們?cè)诮鉀Q復(fù)雜問(wèn)題和應(yīng)對(duì)新的場(chǎng)景時(shí)表現(xiàn)更加出色。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)在應(yīng)用層面,需要設(shè)計(jì)算法、訓(xùn)練模型、部署模型以及開(kāi)發(fā)用戶接口。AI框架如TensorFlow和PyTorch提供了編程語(yǔ)言和庫(kù)來(lái)構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。數(shù)據(jù)處理工具如Pandas和NumPy則用于數(shù)據(jù)的預(yù)處理和分析。在硬件驅(qū)動(dòng)層面,GPU和CPU的驅(qū)動(dòng)程序確保硬件與軟件的高效交互,而專用硬件如TPU和FPGA的驅(qū)動(dòng)則為特定AI任務(wù)提供加速。硬件方面,CPU和GPU是執(zhí)行計(jì)算任務(wù)的核心,而TPU和FPGA等專用硬件則提供額外的計(jì)算能力。存儲(chǔ)設(shè)備如SSD和HDD用于數(shù)據(jù)存儲(chǔ),網(wǎng)絡(luò)硬件則支持?jǐn)?shù)據(jù)傳輸和模型部署。軟件層面,操作系統(tǒng)如Linux和Windows提供運(yùn)行環(huán)境和管理資源。數(shù)據(jù)庫(kù)軟件管理數(shù)據(jù)存儲(chǔ),虛擬化技術(shù)如Docker和Kubernetes簡(jiǎn)化應(yīng)用部署。云服務(wù)平臺(tái)提供計(jì)算資源,支持大規(guī)模模型訓(xùn)練和部署。這些技術(shù)、硬件和軟件共同構(gòu)成了人工智能大模型的完整生態(tài)系統(tǒng)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型產(chǎn)品在實(shí)際應(yīng)用中,用戶要通過(guò)人工智能工具來(lái)使用大語(yǔ)言模型,目前,國(guó)內(nèi)外主流的大語(yǔ)言模型工具對(duì)比分析如表2-1所示。它們具備文本生成、語(yǔ)言理解、知識(shí)問(wèn)答、邏輯推理等多種能力,可廣泛應(yīng)用于寫作輔助、內(nèi)容創(chuàng)作、智能客服等多個(gè)領(lǐng)域。大模型名稱國(guó)家/地區(qū)主要特點(diǎn)ChatGPT美國(guó)生成式對(duì)話、知識(shí)庫(kù)更新至2023年、支持代碼生成Gemini美國(guó)多模態(tài)圖文理解、高效推理、支持代碼/圖像/視頻生成LLaMA美國(guó)Meta(Facebook)開(kāi)源的系列大語(yǔ)言模型,如LLaMA-2、LLaMA-3,推動(dòng)開(kāi)源AI發(fā)展。DeepSeek中國(guó)復(fù)雜推理能力、多模態(tài)融合、實(shí)時(shí)信息整合文心一言中國(guó)中文語(yǔ)義理解、多模型生成、搜索數(shù)據(jù)反哺Kimi中國(guó)超長(zhǎng)文本處理、多模融合、學(xué)術(shù)場(chǎng)景適配豆包中國(guó)豆包大模型,原名“云雀”,是字節(jié)跳動(dòng)發(fā)布的大模型。多模型交互、成本控制、生態(tài)整合通義中國(guó)阿里云推出的語(yǔ)言模型,企業(yè)級(jí)服務(wù)優(yōu)化、多語(yǔ)言支持、云原生集成訊飛星火中國(guó)科大訊飛推出的新一代認(rèn)知智能大模型,語(yǔ)音交互優(yōu)勢(shì)、教育醫(yī)療場(chǎng)景適配、知識(shí)庫(kù)實(shí)時(shí)更新騰訊混元中國(guó)多模態(tài)理解(文本/圖片/視頻)、社交游戲適配、實(shí)時(shí)信息處理華為盤古中國(guó)科學(xué)計(jì)算優(yōu)化、工業(yè)場(chǎng)景適配、多模態(tài)融合(文本/視覺(jué)/傳感器數(shù)據(jù))2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。1)能源消耗大語(yǔ)言模型的訓(xùn)練和運(yùn)行需要巨大的能源消耗,這不僅增加了成本,還對(duì)環(huán)境造成顯著影響。例如,訓(xùn)練GPT-3的能耗約為1300兆瓦時(shí)(MWh),相當(dāng)于120個(gè)美國(guó)家庭一年的用電量(MITTechnologyReview,2020)。谷歌的研究顯示,訓(xùn)練一個(gè)BERT-large模型會(huì)產(chǎn)生約1400磅二氧化碳排放,相當(dāng)于一次跨美國(guó)飛行的碳排放(來(lái)源:Strubelletal,2019)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。2)大量訓(xùn)練時(shí)間大語(yǔ)言模型的訓(xùn)練需要極長(zhǎng)的計(jì)算時(shí)間,依賴高性能計(jì)算集群。例如,Meta的LLaMA-2(70B參數(shù))訓(xùn)練耗時(shí)約1,720,000GPU小時(shí),相當(dāng)于使用1000塊A100GPU連續(xù)運(yùn)行71天(來(lái)源:MetaAI,2023)。OpenAI訓(xùn)練GPT-3時(shí)使用了數(shù)千塊V100GPU,耗時(shí)數(shù)月。這種長(zhǎng)時(shí)間訓(xùn)練不僅延遲了模型迭代速度,還限制了資源有限的研究機(jī)構(gòu)參與競(jìng)爭(zhēng)。盡管分布式計(jì)算和硬件優(yōu)化(如TPU)可縮短時(shí)間,但超大規(guī)模模型的訓(xùn)練仍是一項(xiàng)耗時(shí)耗力的工程挑戰(zhàn)。2.相關(guān)知識(shí)——大語(yǔ)言模型的核心技術(shù)大語(yǔ)言模型面臨的挑戰(zhàn)大語(yǔ)言模型雖然展現(xiàn)出強(qiáng)大的能力,但仍面臨諸多挑戰(zhàn),下面著重從能源消耗、大量訓(xùn)練時(shí)間和大模型幻覺(jué)三個(gè)方面做說(shuō)明。3)大模型幻覺(jué)大語(yǔ)言模型的“幻覺(jué)”(Hallucination)指生成與事實(shí)不符或無(wú)依據(jù)的內(nèi)容,這是其核心缺陷之一。例如,谷歌的Bard在2023年演示中錯(cuò)誤宣稱“詹姆斯·韋伯太空望遠(yuǎn)鏡拍攝了太陽(yáng)系外行星的首張照片”,實(shí)際該成果由歐洲南方天文臺(tái)完成,導(dǎo)致谷歌股價(jià)單日下跌7%(來(lái)源:Reuters,2023)。GPT-4在醫(yī)療領(lǐng)域也可能生成虛假診斷建議,如用戶提問(wèn)“如何治療罕見(jiàn)病X”,模型可能編造不存在的藥物名稱或療法。幻覺(jué)的根源在于模型通過(guò)概率生成文本,而非真正理解事實(shí)。2023年《Nature》研究指出,GPT-4在回答科學(xué)問(wèn)題時(shí)約20%的陳述包含事實(shí)性錯(cuò)誤。盡管可通過(guò)檢索增強(qiáng)生成(RAG)或?qū)崟r(shí)聯(lián)網(wǎng)驗(yàn)證緩解,但無(wú)法完全消除。當(dāng)前的技術(shù)只能減少大語(yǔ)言模型的“幻覺(jué)”,還不能完全消除大語(yǔ)言模型“幻覺(jué)”。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(1)小語(yǔ)言模型的內(nèi)涵小語(yǔ)言模型(SmallLanguageModel,SLM)是能夠處理、理解和生成自然語(yǔ)言內(nèi)容的人工智能模型。顧名思義,SLM的規(guī)模和范圍比大型語(yǔ)言模型小。就規(guī)模而言,SLM的參數(shù)范圍從幾百萬(wàn)到幾十億不等,而LLM則具有數(shù)千億甚至數(shù)萬(wàn)億參數(shù)。參數(shù)是模型在訓(xùn)練期間要學(xué)習(xí)的內(nèi)部變量,例如權(quán)重和偏差。這些參數(shù)會(huì)影響機(jī)器學(xué)習(xí)模型的行為和執(zhí)行方式。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(2)小語(yǔ)言模型的價(jià)值小語(yǔ)言模型具有諸多優(yōu)勢(shì),使其在特定場(chǎng)景下更具價(jià)值。它們對(duì)資源需求低,適合在移動(dòng)設(shè)備、邊緣設(shè)備等資源受限的環(huán)境中運(yùn)行。小語(yǔ)言模型的訓(xùn)練和部署成本低,性價(jià)比高。小語(yǔ)言模型響應(yīng)速度快,適合實(shí)時(shí)交互應(yīng)用。它們還可以在本地運(yùn)行,避免數(shù)據(jù)傳輸,從而更好地保護(hù)用戶隱私。小語(yǔ)言模型在特定領(lǐng)域經(jīng)過(guò)優(yōu)化后,能夠更高效地完成任務(wù)。2.相關(guān)知識(shí)——小語(yǔ)言模型SLM(3)小語(yǔ)言模型產(chǎn)品雖然較大的模型仍然是許多企業(yè)的技術(shù)選擇,但較小的模型正在迅速普及。以下是一些常見(jiàn)的小型語(yǔ)言模型:DistilBERT、Gemma、GPT-4omini、Granite、Llama、Ministral、Phi和CM-3B。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(1)AIGC概述人工智能內(nèi)容生成(AIGC,AI-GeneratedContent)是指利用深度學(xué)習(xí)模型(如GPT、StableDiffusion等)自動(dòng)生成文本、圖像、音頻、視頻等內(nèi)容的技術(shù)。其核心是基于大規(guī)模數(shù)據(jù)訓(xùn)練,模仿人類創(chuàng)作模式,實(shí)現(xiàn)高效、多樣化的內(nèi)容生產(chǎn)。AIGC正重塑媒體、教育、娛樂(lè)等行業(yè),但也面臨版權(quán)、倫理等挑戰(zhàn),成為AI領(lǐng)域的重要發(fā)展方向。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(2)AIGC與大語(yǔ)言模型的關(guān)系A(chǔ)IGC是一個(gè)廣泛的概念,涵蓋文本、圖像、音頻、視頻等多種內(nèi)容的自動(dòng)生成,而大語(yǔ)言模型(LLM)是AIGC的核心技術(shù)之一,專注于文本生成與理解。例如,GPT-4、Claude等模型不僅能創(chuàng)作文章、代碼,還能驅(qū)動(dòng)聊天機(jī)器人、輔助決策。此外,多模態(tài)大模型(如GPT-4o、Gemini)進(jìn)一步融合文本與視覺(jué)、聽(tīng)覺(jué)能力,擴(kuò)展了AIGC的應(yīng)用場(chǎng)景。然而,兩者均面臨幻覺(jué)、版權(quán)和倫理問(wèn)題,需結(jié)合人類監(jiān)督與合規(guī)框架以確??煽啃耘c安全性。2.相關(guān)知識(shí)——人工智能內(nèi)容生成AIGC(3)AIGC分類現(xiàn)階段國(guó)內(nèi)外AIGC多以單模型應(yīng)用的形式出現(xiàn),主要分為文本生成、圖像生成、視頻生成、音頻生成,其中文本生成成為其他內(nèi)容生成的基礎(chǔ)。
AIGC生成的繪圖作品某國(guó)內(nèi)AI工具生成的視頻2.相關(guān)知識(shí)——AIGC分類文本生成文本生成(AITextGeneration),人工智能文本生成是使用人工智能(AI)算法和模型來(lái)生成模仿人類書寫內(nèi)容的文本。圖像生成圖像生成(AIImageGeneration),人工智能(AI)可用于生成非人類藝術(shù)家作品的圖像。語(yǔ)音生成語(yǔ)音生成(AIAudioGeneration),AIGC的音頻生成技術(shù)可以分為兩類,分別是文本到語(yǔ)音合成和語(yǔ)音克隆。視頻生成視頻生成(AIVideoGeneration),AIGC已被用于視頻剪輯處理以生成預(yù)告片和宣傳視頻。2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則(1)提示詞的含義提示詞(Prompt)是用戶與人工智能系統(tǒng)交互時(shí)提供的初始輸入或引導(dǎo)性信息,它用于指導(dǎo)模型生成符合特定需求和預(yù)期的輸出。通過(guò)精心設(shè)計(jì)提示詞,可以更有效地利用AIGC技術(shù)來(lái)生成高質(zhì)量的內(nèi)容。它是幫助大模型“回憶”自己在預(yù)訓(xùn)練時(shí)學(xué)習(xí)到的知識(shí)。對(duì)于大模型來(lái)說(shuō),提示詞就是用戶的輸入,它可以是一個(gè)簡(jiǎn)單的問(wèn)題,一段較長(zhǎng)的文本,也可以是一組指令,這取決于用戶的具體需求。提示詞作為用戶與人工智能系統(tǒng)交互的核心指令,本質(zhì)上構(gòu)建了人機(jī)對(duì)話的語(yǔ)義通道。在AIGC(人工智能生成內(nèi)容)中,提示詞是用戶與AI模型交互的關(guān)鍵工具。2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則(2)提示詞的設(shè)計(jì)原則提示詞設(shè)計(jì)是AIGC應(yīng)用中的關(guān)鍵環(huán)節(jié),其設(shè)計(jì)原則包括準(zhǔn)確性、上下文完整性、角色明確、示例驅(qū)動(dòng)和優(yōu)化交互效率,這些原則有助于提升生成內(nèi)容的質(zhì)量和效率1)準(zhǔn)確性原則2)上下文完整性3)明確角色4)示例驅(qū)動(dòng)5)優(yōu)化交互效率2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則6. AIGC提示詞的撰寫方法提示詞的撰寫沒(méi)有固定的格式和公式,但是在近年AIGC的應(yīng)用中,眾多的用戶總結(jié)和提煉出一些經(jīng)驗(yàn)和技巧,可以為初學(xué)者提供幫助。1)CO-STAR提示詞法則2)STAR提示詞法則3)通用提示詞公式4)文本生成提示詞公式5)圖像生成提示詞公式6)代碼生成提示詞公式2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則7. 提示詞的優(yōu)化方法在人工智能時(shí)代,提示詞(Prompt)是與AI對(duì)話的“密碼”——它的質(zhì)量直接決定生成內(nèi)容的精準(zhǔn)度。無(wú)論是文本創(chuàng)作、圖像生成還是代碼編寫,掌握優(yōu)化方法都能讓AI從“隨機(jī)發(fā)揮”變?yōu)椤案咝f(xié)作”。以下是提升提示詞效果的實(shí)用策略。1)保持簡(jiǎn)潔和高效性2)逐步引導(dǎo)3)多維度要求4)數(shù)據(jù)驅(qū)動(dòng)的需求5)AI智能體自動(dòng)優(yōu)化提示詞2.相關(guān)知識(shí)——AIGC提示詞和設(shè)計(jì)原則7. 提示詞的優(yōu)化方法智能體自動(dòng)優(yōu)化提示詞感謝聆聽(tīng)AIGCAIGC提示詞項(xiàng)目1AIGCPARTTHREE項(xiàng)目實(shí)施3.項(xiàng)目實(shí)施任務(wù)1AIGC工具的注冊(cè)和簡(jiǎn)單應(yīng)用面對(duì)緊迫的研學(xué)產(chǎn)品開(kāi)發(fā)任務(wù),小林制定了系統(tǒng)化的AIGC工具應(yīng)用方案。他首先全面梳理公司現(xiàn)有文檔資料,建立基礎(chǔ)素材庫(kù)。同時(shí)為了日后工作的需要,規(guī)劃搭建智能化工具矩陣:(1)文本處理注冊(cè)和調(diào)用“DeepSeek、文心一言”等AI工具。(2)圖像處理注冊(cè)和調(diào)用“通義萬(wàn)相”AI工具。(3)智能體開(kāi)發(fā)注冊(cè)和調(diào)用“豆包”AI工具。(4)音視頻處理注冊(cè)和調(diào)用“迅飛星火、即夢(mèng)、可靈”等AI工具。(5)數(shù)字人新業(yè)務(wù)注冊(cè)和調(diào)用“有言、剪映、蟬鏡”等AI工具。為提升日常辦公效率,他還要升級(jí)安裝AI版WPS,利用其智能排版、數(shù)據(jù)分析和文檔協(xié)作功能。3.項(xiàng)目實(shí)施任務(wù)1AIGC工具的注冊(cè)和簡(jiǎn)單應(yīng)用”本任務(wù)選用DeepSeek作為示例工具進(jìn)行注冊(cè)流程演示。其他AIGC工具或者軟件的注冊(cè)流程類似,由讀者自主完成。技術(shù)工具選用AIGC的工具使用比較簡(jiǎn)單,大多是“傻瓜式”操作,所見(jiàn)即所得。登錄系統(tǒng)初次使用時(shí),建議先瀏覽主界面和工作臺(tái),熟悉基本布局和功能模塊。使用流程3.項(xiàng)目實(shí)施任務(wù)1AIGC工具的注冊(cè)和簡(jiǎn)單應(yīng)用這類工具通常采用直觀設(shè)計(jì),操作邏輯簡(jiǎn)單易懂,無(wú)需專業(yè)培訓(xùn)即可快速上手。如遇問(wèn)題,可隨時(shí)查閱平臺(tái)內(nèi)置的幫助文檔或使用指南,其中包含詳細(xì)的功能說(shuō)明和常見(jiàn)問(wèn)題解答。使用流程打開(kāi)官網(wǎng)用戶注冊(cè)用戶登錄熟悉功能界面3.項(xiàng)目實(shí)施任務(wù)1AIGC工具的注冊(cè)和簡(jiǎn)單應(yīng)用操作界面3.項(xiàng)目實(shí)施任務(wù)1AIGC工具的注冊(cè)和簡(jiǎn)單應(yīng)用詳細(xì)步驟請(qǐng)查看教材步驟說(shuō)明,并觀看對(duì)應(yīng)的微課視頻感謝聆聽(tīng)AIGCAIGC提示詞項(xiàng)目1AIGCPARTTHREE項(xiàng)目實(shí)施3.項(xiàng)目實(shí)施任務(wù)2制作“研學(xué)旅游項(xiàng)目”文檔和資料為高效推進(jìn)研學(xué)旅游項(xiàng)目文檔開(kāi)發(fā),小林需系統(tǒng)梳理校方、家長(zhǎng)方及研學(xué)基地方的核心需求,并針對(duì)性制定溝通文件清單。在開(kāi)展課程活動(dòng)的過(guò)程中,為了加強(qiáng)學(xué)生的互動(dòng),制作一個(gè)抽獎(jiǎng)小軟件。鑒于研學(xué)項(xiàng)目文檔數(shù)量多、專業(yè)性強(qiáng),現(xiàn)以“研學(xué)課程方案、合作協(xié)議、健康信息表、應(yīng)急預(yù)案、抽獎(jiǎng)小軟件”作為第一階段的任務(wù),示范如何借助AIGC工具高效精準(zhǔn)產(chǎn)出。面對(duì)多維度文檔需求,如果你是小林,你將如何計(jì)劃和運(yùn)用DeepSeek等AIGC工具,通過(guò)構(gòu)建結(jié)構(gòu)化提示詞體系精準(zhǔn)引導(dǎo)AI完成相關(guān)任務(wù)。3.項(xiàng)目實(shí)施任務(wù)2制作“研學(xué)旅游項(xiàng)目”文檔和資料主要選用DeepSeek大語(yǔ)言模型工具,快速生成高質(zhì)量的文案,再在WPS等文字編輯工具進(jìn)行格式排版和處理。技術(shù)工具選用3.項(xiàng)目實(shí)施任務(wù)2制作“研學(xué)旅游項(xiàng)目”文檔和資料結(jié)合AIGC工具來(lái)完成工作任務(wù),可以從以上4個(gè)步驟入手,以快速制作文案和資料。制作流程提示詞多輪提問(wèn)AIGC反饋提問(wèn)結(jié)果人工優(yōu)化文稿排版生成輸出文檔3.項(xiàng)目實(shí)施任務(wù)2制作“研學(xué)旅游項(xiàng)目”文檔和資料作品效果3.項(xiàng)目實(shí)施詳細(xì)步驟請(qǐng)查看教材步驟說(shuō)明,并觀看對(duì)應(yīng)的微課視頻任務(wù)2制作“研學(xué)旅游項(xiàng)目”文檔和資料感謝聆聽(tīng)AIGCAIGC提示詞項(xiàng)目1AIGCPARTFOUR人工智能倫理案例分析數(shù)據(jù)隱私案例分析數(shù)據(jù)隱私泄露是指?jìng)€(gè)人或組織的敏感信息,如姓名、身份證號(hào)、聯(lián)系方式、位置信息、金融數(shù)據(jù)等,未經(jīng)授權(quán)被獲取、訪問(wèn)、傳輸或公開(kāi)的現(xiàn)象。這可能導(dǎo)致個(gè)人權(quán)益受損,如遭受詐騙、騷擾,也會(huì)引發(fā)社會(huì)信任危機(jī),給企業(yè)和社會(huì)帶來(lái)負(fù)面影響。以下是國(guó)內(nèi)外幾個(gè)典型的案例。Level1:多學(xué)科融合備課資源整合4.人工智能倫理案例分析數(shù)據(jù)隱私案例分析(1)Facebook劍橋分析事件。英國(guó)劍橋分析公司通過(guò)第三方應(yīng)用獲取8700萬(wàn)Facebook用戶數(shù)據(jù),用于2016年美國(guó)大選精準(zhǔn)廣告投放。事件暴露平臺(tái)對(duì)數(shù)據(jù)濫用的監(jiān)管漏洞,引發(fā)全球?qū)ι缃黄脚_(tái)數(shù)據(jù)治理的反思。(來(lái)源:新華網(wǎng),2018)。(2)Google位置數(shù)據(jù)追蹤爭(zhēng)議。美聯(lián)社調(diào)查發(fā)現(xiàn),即使關(guān)閉“位置歷史”功能,Google仍通過(guò)地圖和搜索服務(wù)記錄用戶軌跡。用戶隱私設(shè)置存在誤導(dǎo)性設(shè)計(jì),算法隱性收集數(shù)據(jù)的倫理問(wèn)題引發(fā)質(zhì)疑。(來(lái)源:觀察者網(wǎng),2018)。典型案例4.人工智能倫理案例分析數(shù)據(jù)隱私案例分析(3)Uber數(shù)據(jù)泄露隱瞞事件。黑客入侵Uber服務(wù)器,竊取5700萬(wàn)用戶和司機(jī)信息。Uber支付10萬(wàn)美元封口費(fèi)并
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 公司缺少財(cái)務(wù)制度
- 設(shè)計(jì)院內(nèi)控財(cái)務(wù)制度
- 公司如何獨(dú)立財(cái)務(wù)制度
- 西安街道辦事處財(cái)務(wù)制度
- 關(guān)于食品的四個(gè)制度
- 公司制企業(yè)建立職工董事制度
- 養(yǎng)老院老人康復(fù)理療師晉升制度
- 施工現(xiàn)場(chǎng)施工防化學(xué)事故制度
- 幕墻施工方案公司(3篇)
- 校園消防安全管理制度
- GB/T 44828-2024葡萄糖氧化酶活性檢測(cè)方法
- 青海省西寧市2023-2024學(xué)年高一上學(xué)期物理期末試卷(含答案)
- 科大訊飛招聘在線測(cè)評(píng)題
- 醫(yī)療護(hù)具租賃合同模板
- 兒童性格發(fā)展與個(gè)性獨(dú)立性的培養(yǎng)
- 2024常壓儲(chǔ)罐檢驗(yàn)人員能力評(píng)價(jià)導(dǎo)則
- 物流管理概論王勇1
- 大學(xué)生預(yù)征對(duì)象登記表模板
- 胸外科-胸部創(chuàng)傷
- 2023版設(shè)備管理體系標(biāo)準(zhǔn)
- 劍橋英語(yǔ)PET真題校園版
評(píng)論
0/150
提交評(píng)論