版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅知識(shí)目標(biāo):能了解ChatGPT以及其它大模型;能復(fù)述生成式人工智能的概念,能描述生成式人工智能的各種常見(jiàn)應(yīng)用。能力目標(biāo):能掌握大模型的處理流程和相關(guān)技術(shù);能完成給定需求下,用生成式人工智能提升解決問(wèn)題的效率和質(zhì)量。素養(yǎng)目標(biāo):具備生成式人工智能的思維和正確使用生成式人工智能的認(rèn)識(shí)。7.17.27.37.4生成式人工智能那些事生成式人工智能概述生成式人工智能的核心技術(shù)*目錄CONTENTS7.5生成式人工智能具體應(yīng)用擴(kuò)展:國(guó)產(chǎn)大模型DeepSeek
自2022年11月30日,OpenAl公司發(fā)布人工智能大模型ChatGPT3.5引爆這次人工智能浪潮以來(lái),生成式人工智能得到快速發(fā)展。那發(fā)展到底有多快呢沒(méi)有對(duì)比就沒(méi)有傷害
我們來(lái)對(duì)比一下各個(gè)軟件平臺(tái)用戶數(shù)破億的耗時(shí)記錄。(1)電話用戶數(shù)突破一億用戶的耗時(shí)75年,(2)互聯(lián)網(wǎng)則需要7年。(3)facebook則花費(fèi)4.5年(4)蘋(píng)果公司的AppleAppStore耗時(shí)2年。(5)騰訊公司的微信耗時(shí)1.2年、(6)字節(jié)跳動(dòng)的TikTok(抖音)耗時(shí)九個(gè)月、(7)OpenAI的ChatGPT耗時(shí)兩個(gè)月,...
2022年成為“大模型元年”大模型元年2022年-至今,這種發(fā)展模式持續(xù)
爆,從單模態(tài)發(fā)展到多模態(tài),從高成本發(fā)展到低成本、從國(guó)外延伸到國(guó)內(nèi),其影響力還在不斷延伸和擴(kuò)展。2025年1月,深度求索的DeepSeek又一次引起全球?qū)Υ竽P鸵约吧墒饺斯ぶ悄芫薮箨P(guān)注,用戶數(shù)破億僅僅花費(fèi)7天。到底生成式人工智能是啥?為啥如此火爆?我們又如何利用它服務(wù)我們的學(xué)習(xí)、生活和未來(lái)的專業(yè)發(fā)展呢?小智的生成式人工智能體驗(yàn)
小智先是準(zhǔn)備競(jìng)選班干部,利用生成式人工智能制作了簡(jiǎn)歷,還做個(gè)自己的數(shù)字代言人,成功競(jìng)選班干部。
后來(lái)小智在服務(wù)班級(jí)活動(dòng)中,偶爾還制作PPT,班級(jí)微視頻等。
你是否好奇,小智是如何利用生成式人工智能技術(shù)服務(wù)他的學(xué)習(xí)和生活的呢?DeepSeek等大模型功能真的有這么強(qiáng)大嗎?這些應(yīng)用背后的技術(shù)支撐又是什么呢?GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅7.17.27.37.4生成式人工智能那些事生成式人工智能概述生成式人工智能的核心技術(shù)*目錄CONTENTS7.5生成式人工智能具體應(yīng)用擴(kuò)展:國(guó)產(chǎn)大模型DeepSeek人工智能按用途可簡(jiǎn)單分為決策式人工智能生成式人工智能掃地機(jī)器人自動(dòng)駕駛等DeepSeek,文心一言可靈、即夢(mèng)等人工智能按用途可簡(jiǎn)單分為決策式人工智能生成式人工智能掃地機(jī)器人自動(dòng)駕駛等具身智能DeepSeek,文心一言可靈、即夢(mèng)等7.2.1生成式人工智能概念
生成式人工智能英文全稱是GenerativeArtificialIntelligence,簡(jiǎn)稱GAI或生成式AI。
它能夠根據(jù)用戶要求生成文本、圖像、代碼、視頻和音頻等內(nèi)容。用戶可以提出什么要求呢?7.2.1生成式人工智能概念講四次工業(yè)革命的事兒,(演示)生成個(gè)連連看的游戲(演示)提出要求不同,生成內(nèi)容不同提示詞看備注
在2022年ChatGPT最初發(fā)布的時(shí)候,主要是生成文字。隨后技術(shù)快速發(fā)展,目前從國(guó)內(nèi)外各種大模型來(lái)看,能生成文字、圖像、代碼、視頻、音頻以及智能體等內(nèi)容,而且很多模型都支持多模態(tài)生成。下面我們就常見(jiàn)的生成內(nèi)容進(jìn)行介紹。7.2.2生成式人工智能生成內(nèi)容討論,你經(jīng)常使用哪些大模型來(lái)進(jìn)行生成,能生成什么?
(1)文本生成
文字的生成是生成式AI最原始的功能,也是從自然語(yǔ)言處理發(fā)展而來(lái)的功能,目前的大語(yǔ)言模型如ChatGPT,還有很多國(guó)產(chǎn)的大語(yǔ)言模型如百度的文心一言、阿里的通義千問(wèn)、清華的智譜清言、科大訊飛的訊飛星火、字節(jié)跳動(dòng)即抖音的豆包、金山公司的WPS、深度求索的DeepSeek等都能提供文生文的功能。7.2.2生成式人工智能生成內(nèi)容對(duì)于人類來(lái)說(shuō),80%的信息靠視覺(jué)獲取,我們天生更喜歡看,因此對(duì)圖像的敏感度和喜歡程度也自然遠(yuǎn)高于文字本身,因此大模型除語(yǔ)言大模型可以生成文字外,還有圖像大模型可以生成圖像,目前支持圖像的大模型的應(yīng)用,國(guó)外的有OpenAI開(kāi)發(fā)的DALL·E、Midjourney、StableDiffusion等,國(guó)內(nèi)如百度的文心一格、阿里的通義萬(wàn)相等都提供文生圖的功能。7.2.2生成式人工智能生成內(nèi)容
(2)
圖像生成7.2.2生成式人工智能生成內(nèi)容
(2)
圖像生成
基本能提供文字生成的大模型大都能提供代碼生成,如DeepSeek,文心一言等,除此之外,還有一些專門(mén)做代碼生成的平臺(tái),如pycharm就是python的集成編輯平臺(tái),可以進(jìn)行智能代碼補(bǔ)全的任務(wù)。
完善連連看游戲的完整版7.2.2生成式人工智能生成內(nèi)容
(3)
代碼生成
一方面是生成式AI能力不斷增強(qiáng),另一方面是大家AI需求的不斷增加,現(xiàn)在有很多平臺(tái)都可以根據(jù)文字來(lái)生成視頻,或是依據(jù)靜態(tài)圖片來(lái)生成動(dòng)態(tài)視頻。目前生成視頻的平臺(tái)國(guó)外的有Sora,國(guó)內(nèi)如快手的可靈、抖音的即夢(mèng)AI等。7.2.2生成式人工智能生成內(nèi)容
(4)
生成視頻7.2.2生成式人工智能生成內(nèi)容
(5)
其它生成
不同的生成式AI平臺(tái),提供的AI生成能力也不相同,隨著多模態(tài)大模型的發(fā)展,綜合生成能力不斷增強(qiáng),而且隨著逐步的商業(yè)化,由基本生成延伸出來(lái)的變形也越來(lái)越多,如AI換裝(可靈)、AI修圖()等。也可以通過(guò)平臺(tái)的不同組合來(lái)進(jìn)行,如先根據(jù)圖片生成視頻,再根據(jù)視頻合成數(shù)字人等,在這里就不一一贅述,在后面生成式AI賦能部分再詳細(xì)介紹。7.2.3如何寫(xiě)好提示詞
這個(gè)有點(diǎn)類似你問(wèn)我如何學(xué)好大學(xué)的課程?敢問(wèn)、會(huì)問(wèn)是關(guān)鍵討論,你的經(jīng)驗(yàn)在使用大模型生成的時(shí)候,如何寫(xiě)提示詞?1.目標(biāo)明確,增加細(xì)節(jié)提示詞1:生成一副學(xué)校的畫(huà)面。提示詞2:生成一副大學(xué)校園的畫(huà)面,在秋季,兩個(gè)女同學(xué)在草地上聊天。7.2.3如何寫(xiě)好提示詞2.寫(xiě)好反向提示詞在生成的時(shí)候,一方面我們寫(xiě)提示詞告知大模型我們想要什么?同時(shí)我們也要告訴大模型我們不想要什么,這一點(diǎn)往往被忽略。提示詞3:生成一條在草地上玩耍的小狗。提示詞4:生成一條在草地上玩耍的小狗,不要帶狗繩或項(xiàng)圈。7.2.3如何寫(xiě)好提示詞3.合理利用合適的關(guān)鍵詞、短語(yǔ)和句子一般關(guān)鍵詞和短語(yǔ)在描述要點(diǎn),而句子主要用來(lái)描述細(xì)節(jié),如提示詞5.提示詞5:飛機(jī);萊特兄弟;在藍(lán)色的天空中飛行,天空中有幾朵白云,下面是一望無(wú)際的大海。7.2.3如何寫(xiě)好提示詞4.使用樣例5.可以利用生成式AI來(lái)生成提示詞6.其它如提示詞寫(xiě)出markdown格式等等7.2.3如何寫(xiě)好提示詞
使用生成式AI,但我們不能依賴它。7.2.3如何寫(xiě)好提示詞(它可能一本正經(jīng)的胡說(shuō)八道,為什么呢?)GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅7.17.27.37.4生成式人工智能那些事生成式人工智能概述生成式人工智能的核心技術(shù)*目錄CONTENTS7.5生成式人工智能具體應(yīng)用擴(kuò)展:國(guó)產(chǎn)大模型DeepSeek7.3.1大模型概述7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN7.3.3大模型基礎(chǔ)架構(gòu)Transformer7.3.4擴(kuò)散模型Diffusion7.3.5文生圖的核心CLIP模型討論:現(xiàn)實(shí)生活中,你了解模型嗎?
在正式生產(chǎn)某種產(chǎn)品之前往往會(huì)先做模具;在蓋大樓之前先繪制設(shè)計(jì)圖;在制作衣服之前先做樣衣等等,其實(shí)這些模具、設(shè)計(jì)圖和樣衣等是模型。
為了求點(diǎn)到直線之間的距離,我們會(huì)總結(jié)出數(shù)學(xué)公式,這個(gè)數(shù)學(xué)公式也是模型。
在機(jī)器學(xué)習(xí)中,模型是指通過(guò)算法從數(shù)據(jù)中進(jìn)行學(xué)習(xí)的數(shù)學(xué)表示。
大模型主要是采用深度神經(jīng)網(wǎng)絡(luò)搭建起來(lái)的一個(gè)有輸入、有輸出、有很多參數(shù)、需要很多數(shù)據(jù)來(lái)進(jìn)行訓(xùn)練的一個(gè)模型體系,而這個(gè)體系要運(yùn)轉(zhuǎn)起來(lái),還需要很大的算力。
所以大模型的大,可謂是大數(shù)據(jù)、大參數(shù)和大算力等。7.3.1大模型概述012006年辛頓團(tuán)隊(duì)多層神經(jīng)網(wǎng)絡(luò)022009年李飛飛團(tuán)隊(duì)ImageNet數(shù)據(jù)集032010年GPU被廣泛用于模型訓(xùn)練062017年Google推出Transformer架構(gòu)052014年GAN算法產(chǎn)生可生成文本和圖像042012年AlexNet深度學(xué)習(xí)的轉(zhuǎn)折點(diǎn)072022年OpenAI推出ChatGPT082025年DeepSeek橫空出世AI大眾化大模型相關(guān)的重大事件7.3.1大模型概述
可見(jiàn)大模型的發(fā)展是一個(gè)快速迭代的過(guò)程,每一次進(jìn)步都依賴著計(jì)算能力的提升、算法創(chuàng)新以及應(yīng)用場(chǎng)景的擴(kuò)展。那大模型是怎么工作的呢?7.3.1大模型概述
大模型原理:學(xué)習(xí)已有知識(shí)+生成新知識(shí)一、怎么學(xué)習(xí)已有知識(shí)二、又如何生成新知識(shí)類似與捏泥人的過(guò)程7.3.1大模型概述類似與捏泥人的過(guò)程7.3.1大模型概述搭建硬件架構(gòu),需要GPU等各種深度學(xué)習(xí)算法需要用數(shù)據(jù)進(jìn)行訓(xùn)練能進(jìn)行各種生成介紹大模型主要技術(shù)7.3.1大模型概述7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN
生成對(duì)抗網(wǎng)絡(luò)GAN誕生于2014年,綜合了深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的思想,通過(guò)生成器和判別器的相互對(duì)抗來(lái)實(shí)現(xiàn)文字、圖像和視頻的生成過(guò)程。原始的GAN并不要求生成器和判別器都是深度神經(jīng)網(wǎng)絡(luò),但在實(shí)際中,往往都是基于深度神經(jīng)網(wǎng)絡(luò)去構(gòu)建。7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN生成器判別器一位正在學(xué)習(xí)畫(huà)小狗的畫(huà)家一位嚴(yán)格的鑒定師GAN的工作原理對(duì)抗對(duì)抗類比(b)鑒定師對(duì)抗:畫(huà)的不好
d)鑒定師不斷對(duì)抗:沒(méi)有身體
(f)鑒定師:可以了(a)畫(huà)家隨機(jī)涂鴉
(c)畫(huà)家畫(huà)狗水平不斷提高
(e)畫(huà)家繪制滿意作品7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN生成器生成對(duì)抗過(guò)程判別器GAN的工作原理是一個(gè)神經(jīng)網(wǎng)絡(luò),利用隨機(jī)數(shù)來(lái)生成對(duì)應(yīng)的目標(biāo)對(duì)象。生成的過(guò)程中不斷地根據(jù)判別器提供的對(duì)抗信息進(jìn)行參數(shù)調(diào)整,直到判別器認(rèn)可為止。也是一個(gè)神經(jīng)網(wǎng)絡(luò),根據(jù)訓(xùn)練數(shù)據(jù)集判斷生成器生成內(nèi)容的相似程度,0不像,1非常像。7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN生成對(duì)抗網(wǎng)絡(luò)GAN對(duì)抗過(guò)程7.3.2生成對(duì)抗網(wǎng)絡(luò)GANGAN雖然本身可以生成文字和圖像,但不得不說(shuō),GAN本身并不擅長(zhǎng)文字生成,后來(lái)發(fā)展的GAN的變體也確實(shí)應(yīng)用于文本生成,但GAN最主要或者說(shuō)最廣泛的應(yīng)用還是在圖像生成方面。GAN的應(yīng)用文本生成我不擅長(zhǎng),請(qǐng)找我的子孫們,我擅長(zhǎng)的是標(biāo)出的這些。生成圖像數(shù)據(jù)集圖像創(chuàng)作圖像修復(fù)多模態(tài)生成7.3.2生成對(duì)抗網(wǎng)絡(luò)GAN
在GAN模型的推動(dòng)下,生成式AI應(yīng)該說(shuō)迎來(lái)了春天,而且也有了一些應(yīng)用。GAN缺點(diǎn)和不足(1)生成器和判別器兩個(gè)神經(jīng)網(wǎng)絡(luò),訓(xùn)練難度大(2)GAN本身的機(jī)制是生成器最終為了從判別器那里“騙取”高分,這使得它的生成天生難以充分發(fā)揮生成式AI多樣性和創(chuàng)造性的需要。(3)GAN不好加條件,如生成人可以,但如果添加生成黃皮膚、圓臉、大眼睛的長(zhǎng)發(fā)美女,它就搞不定啦。Transformer和Diffusion就更顯卓越。7.3.3大模型基礎(chǔ)架構(gòu)Transformer
在自然語(yǔ)言的機(jī)器翻譯部分,我們已經(jīng)對(duì)Transformer有初步的認(rèn)識(shí),知道它通過(guò)編碼器和解碼器,同時(shí)設(shè)置中間語(yǔ)義轉(zhuǎn)換向量來(lái)實(shí)現(xiàn)從一種語(yǔ)言翻譯成另一種語(yǔ)言。其實(shí)Transformer的應(yīng)用非常廣泛。我們目前的大模型,無(wú)論是GPT、文心大模型、通義大模型、DeepSeek等,都是基于Transformer來(lái)建立的。你可能好奇,Transformer是怎么做到的呢?7.3.3大模型基礎(chǔ)架構(gòu)Transformer
講講生活中的習(xí)慣思維1.注意力機(jī)制初次見(jiàn)面,先看外表。閱讀文章,先看標(biāo)題批改作業(yè),先看格式共同點(diǎn),通過(guò)后者快速推斷前者,找出其中關(guān)系這就是注意力機(jī)制,就是關(guān)注我們?nèi)菀钻P(guān)注的。
人工智能的注意力機(jī)制最早來(lái)自圖像標(biāo)注,后來(lái)被用于自然語(yǔ)言處理,用于解決機(jī)器翻譯的長(zhǎng)句子處理問(wèn)題。當(dāng)翻譯的句子越來(lái)越長(zhǎng)的時(shí)候,單純的編碼器和解碼器,翻譯效果不理想。7.3.3大模型基礎(chǔ)架構(gòu)Transformer1.注意力機(jī)制基于編碼器和解碼器的機(jī)器翻譯7.3.3大模型基礎(chǔ)架構(gòu)Transformer1.注意力機(jī)制Ilikesports我喜歡運(yùn)動(dòng)ItwasonthemorningofFebruarytheninththatIarrivedinLondon.它在2月的早上第九我到達(dá)了倫敦短句翻譯,還可以
長(zhǎng)句翻譯,就不理想。忽略了詞和詞之間的聯(lián)系,沒(méi)有采用注意力機(jī)制。
采用注意力機(jī)制以后,翻譯:2月9日早晨我到達(dá)了倫敦
從數(shù)學(xué)的角度來(lái)描述注意力機(jī)制的話,可以理解為權(quán)重。就是把重要的內(nèi)容設(shè)置的權(quán)重高,而不重要的內(nèi)容設(shè)置的權(quán)重低。7.3.3大模型基礎(chǔ)架構(gòu)Transformer1.注意力機(jī)制設(shè)置不同權(quán)重的編碼器和解碼器7.3.3大模型基礎(chǔ)架構(gòu)Transformer研究明表,漢字序順并不定一影閱響讀比如當(dāng)你完看這句話,才發(fā)現(xiàn)字全是亂的。來(lái)自科普中國(guó)的一段文字其實(shí)僅有注意力機(jī)制還不夠,請(qǐng)閱讀右邊文字。這是因?yàn)樵陂喿x時(shí),我們并不是逐字閱讀,而是會(huì)掃視“關(guān)鍵字”,然后大腦會(huì)憑借經(jīng)驗(yàn)進(jìn)行“腦補(bǔ)式”的理解。1.注意力機(jī)制----自注意力機(jī)制7.3.3大模型基礎(chǔ)架構(gòu)Transformer
有意思的是,人不僅在理解漢字時(shí)是這樣,在理解其它語(yǔ)言和圖片時(shí)也這樣。而把這種現(xiàn)象應(yīng)用到人工智能中,就是自注意力機(jī)制了。通俗的講,Transformer的自注意力機(jī)制能夠在句子中找到自己與各個(gè)詞之間的關(guān)系,能快速找到要關(guān)注的重點(diǎn)。1.注意力機(jī)制----自注意力機(jī)制7.3.3大模型基礎(chǔ)架構(gòu)Transformer
除了自注意力機(jī)制外,還有多頭注意力機(jī)制,顧名思義就是有多個(gè)自注意力機(jī)制通過(guò)加權(quán)計(jì)算,然后將加權(quán)計(jì)算結(jié)果綜合起來(lái),增加自注意力機(jī)制的效果。
如在一個(gè)句子中,一個(gè)注意力頭關(guān)注上一個(gè)單詞和下一個(gè)單詞之間的關(guān)系,另一個(gè)注意力頭則會(huì)關(guān)注主語(yǔ)和謂語(yǔ)的關(guān)系上。1.注意力機(jī)制----多頭注意力機(jī)制7.3.3大模型基礎(chǔ)架構(gòu)Transformer
Theanimaldidn'tcrossthestreetbecauseitwastootired.it與animal、street和其它詞的關(guān)聯(lián)1.注意力機(jī)制----多頭注意力機(jī)制7.3.3大模型基礎(chǔ)架構(gòu)Transformer
Theanimaldidn'tcrossthestreetbecauseitwastootired.animal、street與其它詞的關(guān)聯(lián)1.注意力機(jī)制----多頭注意力機(jī)制注意力機(jī)制自注意力機(jī)制多頭注意力機(jī)制同學(xué)們看看能不能用生活中的例子類幫助理解這三個(gè)概念一個(gè)經(jīng)常發(fā)言的同學(xué)引起你的注意,一個(gè)項(xiàng)目團(tuán)隊(duì)合作,不僅要關(guān)注自己,還要和其它同學(xué)協(xié)調(diào)
項(xiàng)目太大,分為多個(gè)團(tuán)隊(duì),每個(gè)團(tuán)隊(duì)有自注意機(jī)制,多個(gè)團(tuán)隊(duì)就是多頭自注意力機(jī)制注意力機(jī)制自注意力機(jī)制多頭注意力機(jī)制核心功能生活舉例從外部信息中篩選出相關(guān)的部分。理解同一序列內(nèi)元素之間的關(guān)系。并行多視角分析,綜合更全面的信息。本質(zhì)都是動(dòng)態(tài)分配權(quán)重,讓模型學(xué)會(huì)“該關(guān)注什么”。一個(gè)經(jīng)常發(fā)言的同學(xué)引起你的注意,一個(gè)項(xiàng)目團(tuán)隊(duì)合作,不僅要關(guān)注自己,還要和其它同學(xué)協(xié)調(diào)
項(xiàng)目太大,分為多個(gè)團(tuán)隊(duì),每個(gè)團(tuán)隊(duì)有自注意機(jī)制,多個(gè)團(tuán)隊(duì)就是多頭自注意力機(jī)制7.3.3大模型基礎(chǔ)架構(gòu)Transformer
你可能會(huì)問(wèn),上面講的和Transformer模型有關(guān)系嗎?當(dāng)然有呀,其實(shí)Transformer模型就是引入了多頭注意力機(jī)制的編碼器和解碼器。2017年,谷歌發(fā)布的論文《AttentionisAllYouNeed》提出Transformer模型。從宏觀來(lái)看,可以把Transformer模型看做一個(gè)有輸入和輸出的黑匣子。2.Transformer模型7.3.3大模型基礎(chǔ)架構(gòu)Transformer
拆開(kāi)這個(gè)黑匣子,我們可以看到它是由編碼組件、解碼組件和它們之間的連接組成,2.Transformer的模型7.3.3大模型基礎(chǔ)架構(gòu)TransformerTransformer的編碼組件由一系列編碼器組成,解碼組件由一系列解碼器組成,其結(jié)構(gòu)可以描述為如圖所示,當(dāng)然這里只繪制了5個(gè)編碼器和解碼器。2.Transformer的模型Transformer結(jié)構(gòu)
編碼器和解碼器的工作過(guò)程虛線框內(nèi)是一個(gè)編碼器或解碼器的內(nèi)部結(jié)構(gòu)7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程其中每一個(gè)編碼器有前饋神經(jīng)網(wǎng)絡(luò)(有輸入層、隱藏層和輸出層的神經(jīng)網(wǎng)絡(luò))和多頭自注意力機(jī)制組成。7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型自注意力機(jī)制通過(guò)計(jì)算前一個(gè)編碼器的輸入編碼之間的相關(guān)性權(quán)重,來(lái)輸出新的編碼;然后前饋神經(jīng)網(wǎng)絡(luò)對(duì)每個(gè)新編碼進(jìn)行處理,然后將這些處理后的編碼作為下一個(gè)編碼器或解碼器的輸入。編碼器和解碼器的工作過(guò)程7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程舉例:首先,將句子“Ihurtmyback”輸入編碼器,編碼器將每個(gè)單詞就行拆解,轉(zhuǎn)化為向量。在多頭注意力機(jī)制中進(jìn)行加權(quán)計(jì)算,然后整個(gè)編碼器會(huì)輸出一個(gè)向量集給解碼器。7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程舉例:其次,在解碼器中,解碼器首先讀到一個(gè)開(kāi)始標(biāo)記,然后解碼器會(huì)生成并輸出一個(gè)向量,這個(gè)向量包含所有可能的漢字,并且每個(gè)漢字會(huì)有一個(gè)得分,得分高的漢字會(huì)出現(xiàn)在第一個(gè)位置,在這里,就是“我”這個(gè)漢字了。7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程舉例:第三,把“我”作為解碼器新的輸入,接下來(lái)得分高的可能是“的”,以此類推,直到完成“我的背受傷了”。7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程
解碼器的多頭注意力機(jī)制采用的是掩碼多頭注意力機(jī)制,其核心思想是:因?yàn)榻獯a器的生成對(duì)象是一個(gè)一個(gè)生成的,生成時(shí)只讓參考已經(jīng)生成的部分,沒(méi)有生成的部分不允許參考。編碼器和解碼器的工作過(guò)程
仍以“我的背受傷了”為例,當(dāng)翻譯到“的”的時(shí)候,只能參考前面已經(jīng)生成的“我”,而不能參考后面還沒(méi)有生成的部分。7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型7.3.3大模型基礎(chǔ)架構(gòu)Transformer2.Transformer的模型編碼器和解碼器的工作過(guò)程此外,解碼器在前饋神經(jīng)網(wǎng)絡(luò)和掩碼多頭注意力機(jī)制之間,還有編碼-解碼注意力機(jī)制,主要是為了接受編碼器的輸入向量集,讓解碼器在解碼過(guò)程中能夠充分關(guān)注到上下文的信息。7.3.3大模型基礎(chǔ)架構(gòu)Transformer3.Transformer基礎(chǔ)模型的常見(jiàn)擴(kuò)展目前的大模型GPT、ChatGPT、BERT、T5、LAMMA以及國(guó)內(nèi)的大模型的基礎(chǔ)都是Transformer,Transformer構(gòu)成了幾乎所以大模型的基礎(chǔ),以Transformer為基礎(chǔ)的大模型可謂生長(zhǎng)成一顆大樹(shù)。Transformer家族7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程GPT是只包含解碼器的Transformer模型,屬于典型的通過(guò)大數(shù)據(jù)預(yù)訓(xùn)練+小數(shù)據(jù)微調(diào)的模型,模型發(fā)展經(jīng)歷GPT-1,GPT-2,GPT-3,GPT3.5,GPT4和GPT4o等。7.3.3大模型基礎(chǔ)架構(gòu)TransformerGPT的不同版本訓(xùn)練模型規(guī)模
模型參數(shù)(Billion)訓(xùn)練數(shù)據(jù)量突破訓(xùn)練方法產(chǎn)生時(shí)間GPT-11.3B40GB訓(xùn)練出大規(guī)模通用模型無(wú)監(jiān)督預(yù)訓(xùn)練和有監(jiān)督微調(diào)2018GPT-21.5B40GB多任務(wù)學(xué)習(xí)框架增加模型規(guī)模和參數(shù)2019GPT-3175B數(shù)十TB展現(xiàn):大力出奇跡,繼續(xù)增加模型規(guī)模和參數(shù)2020GPT-3.5(ChatGPT)175B數(shù)十TB對(duì)話機(jī)器人獎(jiǎng)勵(lì)模型,引入人類反饋的強(qiáng)化學(xué)習(xí)算法2022GPT-4未公開(kāi)未公開(kāi)雙模態(tài)未公開(kāi)2023GPT-4o未公開(kāi)未公開(kāi)多模態(tài)未公開(kāi)20247.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程ChatGPT是在GPT-3.5模型基礎(chǔ)上的微調(diào)模型,采用了基于人類反饋的強(qiáng)化學(xué)習(xí)算法,這種算法的核心思想:(1)模型的訓(xùn)練結(jié)果很大程度依賴人類的反饋,人類對(duì)其生成的結(jié)果進(jìn)行打分。
(2)對(duì)打分的結(jié)果重新輸入的模型中,來(lái)對(duì)模型進(jìn)行調(diào)整。
高分
低分
YESNO正是利用這種基于人類反饋的強(qiáng)化學(xué)習(xí)算法,讓ChatGPT具備更加清晰理解人類對(duì)話的意圖,并獲得和人類進(jìn)行對(duì)話的能力,在語(yǔ)義理解上展現(xiàn)了前所未有的智能。7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程GPT3.5是基礎(chǔ)模型(通用大模型),通過(guò)預(yù)訓(xùn)練完成。ChatGPT是在GPT3.5的基礎(chǔ)上又經(jīng)過(guò)監(jiān)督微調(diào)、獎(jiǎng)勵(lì)模型和強(qiáng)化學(xué)習(xí)訓(xùn)練的結(jié)果,整個(gè)訓(xùn)練過(guò)程分為四個(gè)步驟:ChatGPT的訓(xùn)練分為四個(gè)步驟預(yù)訓(xùn)練通用大模型監(jiān)督微調(diào)訓(xùn)練獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)步驟一
步驟二
步驟三
步驟四7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程預(yù)訓(xùn)練是預(yù)先在大量數(shù)據(jù)上訓(xùn)練模型。通過(guò)無(wú)監(jiān)督學(xué)習(xí)的方式對(duì)大量無(wú)標(biāo)簽數(shù)據(jù)進(jìn)行學(xué)習(xí)。這樣獲得的模型也稱成為通用大模型,如GPT3.5就是通用大模型。這種訓(xùn)練往往需要大數(shù)據(jù)、大參數(shù)和大算力支持。ChatGPT的訓(xùn)練分為四個(gè)步驟預(yù)訓(xùn)練通用大模型監(jiān)督微調(diào)訓(xùn)練獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)步驟一
步驟二
步驟三
步驟四7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程通用大模型,可能不能滿足某些場(chǎng)景的需要,需要進(jìn)一步通過(guò)監(jiān)督微調(diào)的方式進(jìn)行訓(xùn)練。微調(diào)是在特定任務(wù)的小數(shù)據(jù)集上微調(diào)預(yù)訓(xùn)練模型以優(yōu)化性能。ChatGPT的訓(xùn)練分為四個(gè)步驟預(yù)訓(xùn)練通用大模型監(jiān)督微調(diào)訓(xùn)練獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)步驟一
步驟二
步驟三
步驟四基礎(chǔ)大模型
微調(diào)模型通才
專才7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程首先收集人們?cè)趯?duì)話中感興趣的問(wèn)題,形成一個(gè)問(wèn)題庫(kù);其次不斷從問(wèn)題庫(kù)中提取一個(gè)問(wèn)題(稱為prompt),丟給現(xiàn)實(shí)中的人,讓它來(lái)做出回答,這個(gè)回答也稱為標(biāo)注。接下來(lái)把問(wèn)題和回答形成“問(wèn)-答”對(duì),放入到通用模型如GPT3.5中進(jìn)行監(jiān)督學(xué)習(xí),得到一個(gè)監(jiān)督學(xué)習(xí)的微調(diào)模型。從問(wèn)題庫(kù)中抽取問(wèn)題蘋(píng)果是什么?
蘋(píng)果是一種水果...
人工進(jìn)行回答在GPT3.5上進(jìn)行微調(diào)步驟二:監(jiān)督微調(diào)7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程獎(jiǎng)勵(lì)模型的訓(xùn)練方式,針對(duì)同一個(gè)問(wèn)題,讓監(jiān)督微調(diào)學(xué)習(xí)模型給出多個(gè)答案。讓現(xiàn)實(shí)中的人對(duì)這多個(gè)回答進(jìn)行排序,這其中隱含了人類對(duì)模型效果的預(yù)期,依此形成新的標(biāo)注數(shù)據(jù)集,然后進(jìn)行訓(xùn)練獎(jiǎng)勵(lì)模型,ChatGPT的訓(xùn)練分為四個(gè)步驟預(yù)訓(xùn)練通用大模型監(jiān)督微調(diào)訓(xùn)練獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)步驟一
步驟二
步驟三
步驟四7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程步驟三:訓(xùn)練獎(jiǎng)勵(lì)模型從問(wèn)題庫(kù)中抽取問(wèn)題蘋(píng)果是什么?
A紅色的
人工進(jìn)行排序利用排序結(jié)果訓(xùn)練獎(jiǎng)勵(lì)模型重復(fù)生成多次回答B(yǎng)玩具
C酸酸甜甜
D一種水果
7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程用強(qiáng)化學(xué)習(xí)算法通過(guò)獎(jiǎng)勵(lì)模型優(yōu)化策略??梢哉J(rèn)為得到策略優(yōu)化模型ChatGPT的訓(xùn)練分為四個(gè)步驟預(yù)訓(xùn)練通用大模型監(jiān)督微調(diào)訓(xùn)練獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)步驟一
步驟二
步驟三
步驟四7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程(1)從數(shù)據(jù)集里面取出一條問(wèn)題(2)然后放入到從微調(diào)模型得到的策略優(yōu)化模型里面,(3)策略優(yōu)化模型給出一條輸出文本。(4)把文本放入獎(jiǎng)勵(lì)模型進(jìn)行打分,獲獎(jiǎng)勵(lì)值,(5)把獎(jiǎng)勵(lì)值反饋到策略優(yōu)化模型更新策略,并持續(xù)反復(fù)迭代。GPT大模型的訓(xùn)練四個(gè)步驟8.3.2大模型是如何演進(jìn)的所需資源上千塊GPU訓(xùn)練數(shù)月幾十塊GPU訓(xùn)練數(shù)天幾十塊GPU訓(xùn)練數(shù)天幾十塊GPU訓(xùn)練數(shù)天四個(gè)步驟預(yù)訓(xùn)練監(jiān)督微調(diào)獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)數(shù)據(jù)集互聯(lián)網(wǎng)公開(kāi)數(shù)據(jù)集2萬(wàn)億Token問(wèn)答對(duì)1萬(wàn)-10萬(wàn)人工反饋評(píng)價(jià)10萬(wàn)-100萬(wàn)人工提示詞1萬(wàn)-10萬(wàn)算法語(yǔ)言模型預(yù)測(cè)下一個(gè)Token語(yǔ)言模型預(yù)測(cè)下一個(gè)Token二元分類器輸出獎(jiǎng)勵(lì)強(qiáng)化學(xué)習(xí)最大化獎(jiǎng)勵(lì)模型基礎(chǔ)模型預(yù)訓(xùn)練模型獎(jiǎng)勵(lì)模型強(qiáng)化學(xué)習(xí)7.3.3大模型基礎(chǔ)架構(gòu)Transformer4.大模型的訓(xùn)練過(guò)程經(jīng)過(guò)以上四步的訓(xùn)練,可以實(shí)現(xiàn)完成大模型的訓(xùn)練。但如何利用大模型完成文本生成呢?7.3.3大模型基礎(chǔ)架構(gòu)Transformer5.大模型實(shí)現(xiàn)文本生成
大模型通過(guò)預(yù)測(cè)下一個(gè)詞產(chǎn)生文本生成,預(yù)測(cè)下一個(gè)詞的原理類似我們熟悉的“文字接龍”游戲。本質(zhì)上大模型接收一段文本后,會(huì)預(yù)測(cè)下一個(gè)最可能的詞匯,然后選中概率最大的那個(gè),組成一個(gè)新的文本,然后繼續(xù)預(yù)測(cè)下一個(gè)最可能的詞匯,重復(fù)這個(gè)過(guò)程,直到生成完整的句子或段落。7.3.3大模型基礎(chǔ)架構(gòu)Transformer5.大模型實(shí)現(xiàn)文本生成
如:人工智能賦下一個(gè)可能出現(xiàn)的詞概率能0.8歌0.05有0.05值0.1下一個(gè)可能出現(xiàn)的詞概率人0.5課0.3羊0.1椅0.1能人...為什么相同的提示詞,大模型生成的內(nèi)容卻不同?概率生成機(jī)制:大模型本質(zhì)上是一個(gè)基于概率的文本生成模型,它通過(guò)計(jì)算下一個(gè)詞出現(xiàn)的概率來(lái)生成文本。即使輸入相同,每次生成的輸出也會(huì)因?yàn)楦怕史植嫉碾S機(jī)性而不同。...7.3.4擴(kuò)散模型Diffusion
如果說(shuō)Transformer為AI文本生成提供了基礎(chǔ)模型,那Diffusion就是為AI繪畫(huà)提供基礎(chǔ)模型。Diffusion模型是一種應(yīng)用于細(xì)粒度圖像生成的模型,在跨模態(tài)的圖像生成任務(wù)中,已逐漸替代GAN成為主流。7.3.4擴(kuò)散模型Diffusion使用Diffusion模型的AI繪畫(huà)平臺(tái)有StableDiffusion、DALL、Sora、Midjourney,國(guó)內(nèi)的即夢(mèng)、可靈等。2022年在美國(guó)科羅拉多州博覽會(huì)的數(shù)字藝術(shù)類美術(shù)比賽中獲得第一名的“太空歌劇院”,就是由Midjourney平臺(tái)生成的。7.3.4擴(kuò)散模型Diffusion那Diffusion模型到底是什么?為何具有如此強(qiáng)大的功能呢?Diffusion模型也稱為擴(kuò)散模型。擴(kuò)散本身是一種物理現(xiàn)象,指的是一種基于分子熱運(yùn)動(dòng)的現(xiàn)象,是分子通過(guò)布朗運(yùn)動(dòng)從高濃度區(qū)域向低濃度區(qū)域移動(dòng)的過(guò)程。例如一滴墨水?dāng)U散到整個(gè)盛水的容器中。7.3.4擴(kuò)散模型DiffusionDiffusion就是利用這種擴(kuò)散原理開(kāi)發(fā)的模型,其思想是:首先向訓(xùn)練數(shù)據(jù)集中的圖像不斷加入噪聲,使之最終變成一張模糊的圖像,這個(gè)過(guò)程就類似于向水中加入一滴墨水,墨水?dāng)U散,水變成藍(lán)色;然后模型逆轉(zhuǎn)這一過(guò)程,將噪聲轉(zhuǎn)化為圖像。7.3.4擴(kuò)散模型Diffusion正向擴(kuò)散過(guò)程可以描述為逐漸將噪聲作用于圖像,直到圖像全部被噪聲覆蓋。1.正向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion這樣就可以得到一個(gè)定義明確的正向擴(kuò)散過(guò)程。1.正向擴(kuò)散過(guò)程馬爾科夫鏈正向擴(kuò)散過(guò)程每一個(gè)狀態(tài)概率分布,只能由當(dāng)前狀態(tài)決定,與其它狀態(tài)無(wú)關(guān)。每一個(gè)圖片是什么樣子,只和它的上一個(gè)圖片有關(guān),而且遵循概率分布。7.3.4擴(kuò)散模型Diffusion換一個(gè)角度思考,既然任何一幅圖像通過(guò)不斷添加隨機(jī)噪聲后,會(huì)變成完全隨機(jī)的噪聲圖像,那我們能不能將這個(gè)過(guò)程翻轉(zhuǎn)?讓神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)這個(gè)噪聲擴(kuò)散的過(guò)程,然后在將這個(gè)過(guò)程逆向擴(kuò)散,把隨機(jī)生成的噪聲圖像,逐漸轉(zhuǎn)換為清晰的生成圖像呢?2.逆向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion實(shí)現(xiàn)這個(gè)過(guò)程需要一個(gè)“魔法工具”來(lái)幫忙,這個(gè)工具就是
UNet神經(jīng)網(wǎng)絡(luò),UNet因結(jié)構(gòu)像U形而得名,UNet就像一個(gè)“圖片修復(fù)大師”,它知道如何從噪聲中提取有用的信息,并一步步修復(fù)圖片。2.逆向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion(1)輸入:UNet接收一張帶噪聲的圖片,以及當(dāng)前的噪聲強(qiáng)度。(2)預(yù)測(cè)噪聲:UNet分析這張圖片,并預(yù)測(cè)出圖片中的噪聲是什么。2.逆向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion(3)去除噪聲:根據(jù)預(yù)測(cè)的噪聲,從圖片中減去噪聲,得到一張稍微清晰一點(diǎn)的圖片。(4)迭代:重復(fù)這個(gè)過(guò)程,一步步減少噪聲,直到圖片完全清晰。2.逆向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion通過(guò)正向擴(kuò)散和逆向擴(kuò)散兩個(gè)過(guò)程,擴(kuò)散模型就能實(shí)現(xiàn)以一張?jiān)紙D像為基礎(chǔ),生成一張全新的圖像。2.逆向擴(kuò)散過(guò)程7.3.4擴(kuò)散模型Diffusion
回憶一下以前的黑白電視和神奇的天線。7.3.4擴(kuò)散模型Diffusion通過(guò)上面的學(xué)習(xí)我們可能明白了怎么在隨機(jī)噪聲和圖像之間的生成,可現(xiàn)在大火的文本生成圖像是怎么實(shí)現(xiàn)的呢,我們就不得不說(shuō)到另一個(gè)大模型CLIP模型。2.逆向擴(kuò)散過(guò)程7.3.5文生圖的核心CLIP模型在2015年物體識(shí)別水平最終超越人類以后,可以實(shí)現(xiàn)把識(shí)別的物體轉(zhuǎn)換為一系列描述,這時(shí)候有研究者就在想,能不能把這個(gè)過(guò)程反過(guò)來(lái),就是給一段描述,然后讓生成圖像,聽(tīng)起來(lái)是不是有點(diǎn)異想天開(kāi)?能創(chuàng)新的人都是異想天開(kāi)的高手!7.3.5文生圖的核心CLIP模型要想讓AI進(jìn)行繪畫(huà),需要讓AI很好理解圖片,要讓AI理解圖片,就必須解決兩個(gè)問(wèn)題,理解力問(wèn)題和數(shù)據(jù)量問(wèn)題。AI對(duì)圖像的理解人類對(duì)圖像的理解AI是對(duì)圖像中的一個(gè)個(gè)像素的特征進(jìn)行學(xué)習(xí)。而人類則是對(duì)圖像從整體上進(jìn)行把握。需要對(duì)大量圖片進(jìn)行標(biāo)注來(lái)訓(xùn)練AI。而人類則通過(guò)看少了的圖片,就可以建立對(duì)圖像的理解和認(rèn)識(shí)。7.3.5文生圖的核心CLIP模型一頓好吃的午飯一只小狗商業(yè)握手對(duì)人類來(lái)說(shuō)容易的事情,但對(duì)AI就不那么容易7.3.5文生圖的核心CLIP模型當(dāng)AI對(duì)圖像的理解陷入困境時(shí),OpenAI的研究者就轉(zhuǎn)換思路:能不能像人類處理圖像的方法,通過(guò)建立文本和圖像之間的匹配來(lái)提升AI對(duì)圖像的理解力呢?這其實(shí)就是CLIP模型的思想。在數(shù)據(jù)方面,目前文本和圖像之間匹配的數(shù)據(jù)較之之前要好找多了,無(wú)論是微信的朋友圈、博客的發(fā)文、推特的推文還是抖音、小紅書(shū)等等平臺(tái)發(fā)布的內(nèi)容本質(zhì)都是用一段文字描述一幅圖片,這就提供了已經(jīng)標(biāo)注好的文字和圖片標(biāo)注對(duì),形成了天然的數(shù)據(jù)資源。理解力問(wèn)題數(shù)據(jù)問(wèn)題7.3.5文生圖的核心CLIP模型OpenAI收集了4億個(gè)高質(zhì)量的的文本-圖像標(biāo)注對(duì),讓CLIP模型進(jìn)行學(xué)習(xí)和訓(xùn)練。AI在海量文本-圖片數(shù)據(jù)集上學(xué)習(xí)圖片和文本的匹配的具體過(guò)程描述:1.潛在空間的概念2.建立圖像潛在空間和文本潛在空間的聯(lián)系生活中的潛在空間概念:我們18位的身份證號(hào)碼的每一位都隱含著潛在信息,示信南省鄭州市中原區(qū)2006年10月1日出生序號(hào)+性別檢驗(yàn)身份證號(hào)碼的潛在信息地區(qū)出生日期順序號(hào)等7.3.5文生圖的核心CLIP模型1.潛在空間的概念建立圖像潛在空間和文本潛在空間的聯(lián)系,形成標(biāo)注好的圖文潛在空間。朋友圈就是一個(gè)很好的被標(biāo)注好的圖文潛在空間7.3.5文生圖的核心CLIP模型2.建立圖像潛在空間和文本潛在空間的聯(lián)系如生成一副騎自行車(chē)的小狗畫(huà)面7.3.5文生圖的核心CLIP模型2.建立圖像潛在空間和文本潛在空間的聯(lián)系建立圖像潛在空間和文本潛在空間的聯(lián)系,形成標(biāo)注好的圖文潛在空間。
Diffusion模型負(fù)責(zé)“一只小狗騎自行車(chē)”的生成過(guò)程
當(dāng)然這個(gè)過(guò)程需要大數(shù)據(jù)、神經(jīng)網(wǎng)絡(luò)的大參數(shù)和大算力支持。7.3.5文生圖的核心CLIP模型2.建立圖像潛在空間和文本潛在空間的聯(lián)系建立圖像潛在空間和文本潛在空間的聯(lián)系,形成標(biāo)注好的圖文潛在空間。7.3.5文生圖的核心CLIP模型通過(guò)這一節(jié)內(nèi)容的學(xué)習(xí),我們基本了解了文本如何生成文本,圖像生成是如何進(jìn)行的,文本到圖像又是怎么生成的。由于CLIP是OpenAI提出的,它的產(chǎn)品DALL.E大火了一把,之后各個(gè)公司相繼開(kāi)發(fā)圖像生成平臺(tái),但基本原理都用到了CLIP模型和Diffusion模型。討論,目前生成式人工智能有哪些支持商用的開(kāi)源大模型?ChatGLM/6B/1T/可商用LLaMA2/7B/13B/33B/65B/2T/可商用BLOOM/1B7/7B1/176B-MT/1.5T/可商用Baichuan/7B/13B/1.2T/1.4T/可商用Falcon/7B/40B/1.5T/可商用Qwen/7B/7B-Chat/2.2T/可商用Aquila/7B/7B-Chat/可商用GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅GenerativeArtificialIntelligence07生成式人工智能2035主講:王紅梅7.17.27.37.4生成式人工智能那些事生成式人工智能概述生成式人工智能的核心技術(shù)*目錄CONTENTS7.5生成式人工智能具體應(yīng)用擴(kuò)展:國(guó)產(chǎn)大模型DeepSeek7.4.1制作簡(jiǎn)歷
小智由于競(jìng)選班委的需要,在AI的幫助下,完成了簡(jiǎn)歷的制作。簡(jiǎn)歷是干什么用的?制作簡(jiǎn)歷有什么要求嗎?小智又是如何實(shí)現(xiàn)的呢?1.簡(jiǎn)歷是什么?簡(jiǎn)歷是升學(xué)、應(yīng)聘、面試等重要場(chǎng)合的一個(gè)敲門(mén)磚,我們一般根據(jù)簡(jiǎn)歷要達(dá)成的目標(biāo),有目的和重點(diǎn)的通過(guò)簡(jiǎn)歷簡(jiǎn)單明了的介紹自己的過(guò)去在這方面的經(jīng)驗(yàn),同時(shí)表達(dá)自己對(duì)未來(lái)要達(dá)成此目的的想法、思路和愿景,讓瀏覽簡(jiǎn)歷的人能一目了然在短時(shí)間內(nèi)認(rèn)識(shí)自己,清楚自己的目的和能力,從而更好的達(dá)成自己的意愿。7.4.1制作簡(jiǎn)歷2.簡(jiǎn)歷的基本要求與原則(1)簡(jiǎn)歷的經(jīng)歷必須真實(shí)。(2)簡(jiǎn)歷要介紹的內(nèi)容與要達(dá)成的目標(biāo)應(yīng)該是一致,(3)表達(dá)自己要達(dá)成本目的或職位的相關(guān)知識(shí)、能力和資源。3.簡(jiǎn)歷制作的基本流程明確目標(biāo)準(zhǔn)備文字介紹準(zhǔn)備個(gè)人照片合成7.4.1制作簡(jiǎn)歷4.簡(jiǎn)歷制作過(guò)程第一步:明確目標(biāo)第二步:準(zhǔn)備文字介紹(AI協(xié)助)第三步:準(zhǔn)備個(gè)人照片(AI協(xié)作)第四步:合成,形成個(gè)人簡(jiǎn)歷
方案一:在WPS中設(shè)計(jì)簡(jiǎn)歷
方案二:用模版生成方法1
方案三:用模版生成方法27.4.2制作數(shù)字人1.什么是數(shù)字人2.小智也想要個(gè)數(shù)字人3.設(shè)計(jì)和實(shí)現(xiàn)小智的數(shù)字人
第一步:找到合適的圖片(數(shù)字人的原型)
第二步:找到合適的數(shù)字人生成平臺(tái)(即夢(mèng),可靈等)
第三步,進(jìn)入平臺(tái)后
(合成視頻)
第四步:根據(jù)上一步生成的視頻,提供文字,對(duì)口型,完成數(shù)字人制作。7.4.3生成視頻第一步:準(zhǔn)備素材第二步:設(shè)計(jì)文案第三步:在軟件平臺(tái)合成視頻(剪映)7.4.4給自己配個(gè)智能體助手1.什么是智能體?這里的智能體是基于大模型生成的智能體,是一種利用大型語(yǔ)言模型作為核心組件,能夠執(zhí)行特定任務(wù)、與環(huán)境交互并做出決策的人工智能系統(tǒng)。經(jīng)常有人把智能體比作自己的專職秘書(shū),比實(shí)際秘書(shū)更有優(yōu)勢(shì)的是,你不用支付工資、它可以24小時(shí)無(wú)休,你可以創(chuàng)建多個(gè)智能體,智能體之間還可以相互協(xié)作,從不爭(zhēng)寵。7.4.4給自己配個(gè)智能體助手智能體在多個(gè)領(lǐng)域有廣泛的應(yīng)用,如在客戶服務(wù)領(lǐng)域,智能體可以作為智能客服機(jī)器人,自動(dòng)回答用戶問(wèn)題,提供個(gè)性化服務(wù)。在內(nèi)容創(chuàng)作領(lǐng)域,智能體可以輔助新聞寫(xiě)作、文案創(chuàng)作,提高創(chuàng)作效率和質(zhì)量。在教育領(lǐng)域,智能體可以作為AI助教,幫助學(xué)生解惑答疑,幫助老師批改作用,分析學(xué)情等。7.4.4給自己配個(gè)智能體助手2.小智的智能體需要入學(xué)一段時(shí)間后,同學(xué)們對(duì)大學(xué)的學(xué)習(xí)和生活產(chǎn)生了困惑,小智準(zhǔn)備創(chuàng)建一個(gè)智能體,幫助同學(xué)們解決面臨的各種心理問(wèn)題,不僅保護(hù)了大家的隱私,還能解決出現(xiàn)的各種不適問(wèn)題。7.4.4給自己配個(gè)智能體助手3.如何創(chuàng)建智能體支持創(chuàng)建智能體的平臺(tái)有很多,像字節(jié)跳動(dòng)的扣子、百度的文心、
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 物業(yè)保潔入職培訓(xùn)課件
- 中建東孚2026屆校園招聘考試備考題庫(kù)及答案解析
- 2026北京房山區(qū)教育委員會(huì)所屬事業(yè)單位招聘專業(yè)技術(shù)人員120人(一)筆試備考試題及答案解析
- 牛郎織女課件教學(xué)
- 2025年云南省勞動(dòng)力中心市場(chǎng)有限公司招聘(10人)考試備考題庫(kù)及答案解析
- 2025四川宜賓市興文生態(tài)環(huán)境監(jiān)測(cè)站見(jiàn)習(xí)崗位募集計(jì)劃2人筆試參考題庫(kù)及答案解析
- 放射性同位素在環(huán)境監(jiān)測(cè)中的角色-洞察及研究
- 2025湖北黃石市中醫(yī)醫(yī)院專項(xiàng)招聘事業(yè)編制工作人員12人筆試參考題庫(kù)及答案解析
- 購(gòu)物中心品牌形象構(gòu)建策略-洞察及研究
- 量子傳感勘探-洞察及研究
- 2025張家港市輔警考試試卷真題
- 部編版小學(xué)三年級(jí)語(yǔ)文寒假銜接講義第4講:句子復(fù)習(xí) (學(xué)生版)
- 遼寧省本溪市2024-2025學(xué)年七年級(jí)(上)期末歷史試卷【含答案】
- 道路清掃保潔重點(diǎn)路段分析及解決措施
- 民主建國(guó)會(huì)會(huì)史課件
- 鸚鵡熱護(hù)理措施
- 員工勞務(wù)合同書(shū)
- 人體形態(tài)學(xué)(山東聯(lián)盟)智慧樹(shù)知到期末考試答案章節(jié)答案2024年青島濱海學(xué)院
- 《辦公用房租賃合同》范本標(biāo)準(zhǔn)版可打印
- 人機(jī)環(huán)管安全管理措施
- 大慶一中、六十九中初四上學(xué)期期末質(zhì)量檢測(cè)物理試題
評(píng)論
0/150
提交評(píng)論