《人工智能基礎(chǔ)與應(yīng)用》課件 第6章 生成式人工智能_第1頁
《人工智能基礎(chǔ)與應(yīng)用》課件 第6章 生成式人工智能_第2頁
《人工智能基礎(chǔ)與應(yīng)用》課件 第6章 生成式人工智能_第3頁
《人工智能基礎(chǔ)與應(yīng)用》課件 第6章 生成式人工智能_第4頁
《人工智能基礎(chǔ)與應(yīng)用》課件 第6章 生成式人工智能_第5頁
已閱讀5頁,還剩66頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第6章

生成式人工智能目錄4生成式人工智能的應(yīng)用1生成式人工智能的發(fā)展歷程2生成式人工智能核心原理生成式模型架構(gòu)36.1生成式人工智能的發(fā)展歷程

目錄1早期探索與技術(shù)雛形關(guān)鍵技術(shù)突破與標(biāo)志性模型2生成式人工智能的發(fā)展歷程01人工智能的誕生達(dá)特茅斯會(huì)議1956年,達(dá)特茅斯會(huì)議首次提出“人工智能”術(shù)語,匯聚了多位科學(xué)家,共同探討機(jī)器學(xué)習(xí)、自然語言處理等前沿課題,標(biāo)志著人工智能學(xué)科的誕生。圖靈測(cè)試的提出1950年,艾倫·圖靈在其論文《計(jì)算機(jī)器與智能》中提出圖靈測(cè)試,為判斷機(jī)器是否具有智能提供了一個(gè)標(biāo)準(zhǔn),開啟了人工智能的理論探索。早期人工智能的探索方向符號(hào)主義早期人工智能主要集中在符號(hào)主義和邏輯推理上,通過符號(hào)表示和操作實(shí)現(xiàn)智能。然而,這種方法在處理復(fù)雜、模糊和不確定性問題時(shí)存在明顯局限性。專家系統(tǒng)早期專家系統(tǒng)通過將專家知識(shí)編碼為規(guī)則,利用邏輯推理引擎模擬專家決策過程。但在語言生成和圖像識(shí)別等領(lǐng)域,專家系統(tǒng)難以處理復(fù)雜問題。生成式人工智能的早期探索語言生成的初步嘗試20世紀(jì)50年代末,自然語言處理的先驅(qū)們通過編寫復(fù)雜的語法規(guī)則讓計(jì)算機(jī)生成簡單句子,但生成內(nèi)容生硬且缺乏連貫性。圖像生成的早期探索20世紀(jì)60年代,計(jì)算機(jī)圖形學(xué)先驅(qū)開發(fā)了交互式繪圖系統(tǒng),嘗試通過算法生成復(fù)雜圖像,為后續(xù)圖像生成技術(shù)奠定了基礎(chǔ)。生成式人工智能的技術(shù)雛形手寫數(shù)字生成實(shí)驗(yàn)90年代初,研究者利用神經(jīng)網(wǎng)絡(luò)生成簡單的手寫數(shù)字圖像,雖分辨率低,但驗(yàn)證了神經(jīng)網(wǎng)絡(luò)在生成任務(wù)中的潛力。反向傳播算法的提出20世紀(jì)80年代,反向傳播算法的提出使多層神經(jīng)網(wǎng)絡(luò)可端到端訓(xùn)練,突破了感知機(jī)的線性局限,為神經(jīng)網(wǎng)絡(luò)的廣泛應(yīng)用奠定了基礎(chǔ)。生成式人工智能的技術(shù)雛形隱馬爾可夫模型20世紀(jì)90年代,隱馬爾可夫模型被廣泛應(yīng)用于語音識(shí)別和自然語言處理,通過狀態(tài)轉(zhuǎn)移和觀測(cè)概率生成序列數(shù)據(jù)。序列生成的局限性盡管隱馬爾可夫模型在語法上較為合理,但在語義連貫性和多樣性方面仍存在不足,難以生成復(fù)雜的語言內(nèi)容。生成式人工智能的技術(shù)雛形01對(duì)抗學(xué)習(xí)的早期探索90年代至2010年前后,對(duì)抗學(xué)習(xí)概念逐漸興起,生成器與判別器在零和博弈中交替提升,為后續(xù)GAN的提出提供了理論基礎(chǔ)。02GAN框架的誕生2014年,Goodfellow提出生成對(duì)抗網(wǎng)絡(luò)(GAN),將博弈論思想與深度神經(jīng)網(wǎng)絡(luò)結(jié)合,開啟了高質(zhì)量內(nèi)容生成的新范式。生成式人工智能的發(fā)展歷程02關(guān)鍵技術(shù)突破MNIST生成實(shí)驗(yàn)深度信念網(wǎng)絡(luò)在MNIST數(shù)據(jù)集上驗(yàn)證了其生成能力,低維噪聲向量可通過網(wǎng)絡(luò)生成清晰的手寫數(shù)字圖像。深度信念網(wǎng)絡(luò)的提出2006年,Hinton提出深度信念網(wǎng)絡(luò),通過堆疊受限玻爾茲曼機(jī)逐層訓(xùn)練,解決了深層網(wǎng)絡(luò)的訓(xùn)練難題,為無監(jiān)督學(xué)習(xí)提供了新思路。關(guān)鍵技術(shù)突破自編碼器的局限傳統(tǒng)自編碼器通過壓縮輸入數(shù)據(jù)生成低維表示,但在生成多樣性和語義合理性方面存在不足。變分自編碼器的突破2013年,變分自編碼器引入概率模型,使隱空間向量服從概率分布,從而生成具有多樣性的樣本,顯著提升了生成質(zhì)量。關(guān)鍵技術(shù)突破GAN的核心機(jī)制GAN通過生成器與判別器的對(duì)抗訓(xùn)練,無需顯式概率密度估計(jì)即可生成高質(zhì)量樣本,為圖像生成等領(lǐng)域帶來了革命性突破。GAN的改進(jìn)與發(fā)展DCGAN標(biāo)準(zhǔn)化了GAN的卷積架構(gòu),引入批歸一化技術(shù),解決了訓(xùn)練不穩(wěn)定問題,進(jìn)一步提升了生成圖像的質(zhì)量。關(guān)鍵技術(shù)突破Transformer架構(gòu)的創(chuàng)新2017年,Transformer架構(gòu)通過自注意力機(jī)制,允許模型在處理序列數(shù)據(jù)時(shí)捕捉長距離依賴關(guān)系,顯著提升了生成質(zhì)量。Transformer的廣泛應(yīng)用Transformer架構(gòu)不僅在自然語言處理領(lǐng)域取得突破,還迅速擴(kuò)展到圖像、音頻等多模態(tài)生成任務(wù),成為生成式人工智能的核心技術(shù)之一。

標(biāo)志性模型GPT-1的開創(chuàng)意義2018年,GPT-1首次將Transformer架構(gòu)應(yīng)用于生成式預(yù)訓(xùn)練模型,展現(xiàn)了強(qiáng)大的語言生成能力。GPT-3的突破性進(jìn)展2020年,GPT-3以1750億參數(shù)展示了少樣本學(xué)習(xí)和零樣本學(xué)習(xí)能力,極大地推動(dòng)了自然語言生成技術(shù)的發(fā)展。

標(biāo)志性模型01StyleGAN的核心創(chuàng)新StyleGAN通過風(fēng)格向量實(shí)現(xiàn)對(duì)生成圖像風(fēng)格的精細(xì)控制,能夠生成高質(zhì)量的人臉圖像,并在發(fā)型、膚色、表情等方面進(jìn)行靈活調(diào)整。02StyleGAN的持續(xù)改進(jìn)StyleGAN2和StyleGAN3在生成圖像質(zhì)量和多樣性方面不斷優(yōu)化,推動(dòng)了圖像生成技術(shù)的發(fā)展。

標(biāo)志性模型DALL·E的文本到圖像生成DALL·E能夠根據(jù)復(fù)雜的文本描述生成高質(zhì)量圖像,為創(chuàng)意設(shè)計(jì)和廣告制作等領(lǐng)域提供了新的工具。StableDiffusion的開源與應(yīng)用StableDiffusion采用擴(kuò)散模型架構(gòu),具有開源、高效的特點(diǎn),廣泛應(yīng)用于藝術(shù)創(chuàng)作和圖像合成任務(wù)。6.2生成式人工智能核心原理目錄4預(yù)訓(xùn)練與微調(diào)原理5多模態(tài)融合原理1生成模型基礎(chǔ)概念2生成數(shù)據(jù)的核心方式對(duì)抗訓(xùn)練原理3生成模型基礎(chǔ)概念01生成模型基礎(chǔ)概念數(shù)學(xué)本質(zhì)從數(shù)學(xué)角度而言,生成式AI以隨機(jī)噪聲為起點(diǎn),通過一系列復(fù)雜變換逼近真實(shí)樣本的分布,從而實(shí)現(xiàn)高保真內(nèi)容的生成。定義生成式人工智能是一種能夠自主生成各類數(shù)據(jù)的模型,涵蓋圖像、文本、音頻等多種數(shù)據(jù)類型。其核心使命是通過算法深度還原真實(shí)數(shù)據(jù)的分布特征。生成模型基礎(chǔ)概念概率模型范式基于概率模型的生成方式,以隱馬爾可夫模型(HMM)為代表,依靠狀態(tài)轉(zhuǎn)移概率和觀測(cè)概率生成序列數(shù)據(jù)。HMM語音生成在語音生成任務(wù)中,HMM依據(jù)音素間的轉(zhuǎn)移概率及發(fā)音信號(hào)概率,逐步生成連貫自然的語音序列,精準(zhǔn)把控音素轉(zhuǎn)換規(guī)律。應(yīng)用場(chǎng)景例如在英語發(fā)音中,從元音音素“a”過渡到輔音音素“p”存在一定概率,HMM通過這些概率實(shí)現(xiàn)語音序列的生成。生成模型基礎(chǔ)概念深度學(xué)習(xí)范式基于深度學(xué)習(xí)的生成方式借助神經(jīng)網(wǎng)絡(luò)強(qiáng)大的函數(shù)擬合能力,直接對(duì)數(shù)據(jù)分布進(jìn)行建模,自動(dòng)編碼器(AE)是典型代表。自編碼器工作原理自編碼器由編碼器和解碼器構(gòu)成,編碼器將輸入數(shù)據(jù)壓縮為低維表示,解碼器再將其重構(gòu)為原始數(shù)據(jù)的近似形式,從而學(xué)習(xí)到數(shù)據(jù)特征。生成數(shù)據(jù)的核心方式02生成數(shù)據(jù)的核心方式在生成對(duì)抗網(wǎng)絡(luò)(GAN)中,生成器以隨機(jī)噪聲向量為輸入,這些噪聲向量通常從標(biāo)準(zhǔn)正態(tài)分布或均勻分布中采樣。噪聲輸入生成器通過卷積層提取特征信息,再利用反卷積層將低維特征映射到高維空間,逐步構(gòu)建出與真實(shí)數(shù)據(jù)相似的圖像。生成過程例如生成貓咪圖像時(shí),生成器從噪聲向量出發(fā),識(shí)別出貓咪輪廓、毛發(fā)等局部特征,最終生成具有特定姿勢(shì)和毛色的貓咪圖像。示例生成數(shù)據(jù)的核心方式條件輸入條件生成對(duì)抗網(wǎng)絡(luò)(CGAN)在生成器和判別器的輸入中融入條件信息,如類別標(biāo)簽或文本描述,以生成符合特定條件的數(shù)據(jù)。應(yīng)用示例例如給定類別標(biāo)簽“貓”,生成器會(huì)生成符合貓?zhí)卣鞯膱D像;若給定風(fēng)景描述文本,生成器則生成與文本描述相符的風(fēng)景圖像。對(duì)抗訓(xùn)練原理03對(duì)抗訓(xùn)練原理01博弈關(guān)系在GAN中,生成器和判別器相互對(duì)立又相互促進(jìn),生成器試圖欺騙判別器,判別器則努力區(qū)分真假數(shù)據(jù)。02目標(biāo)通過對(duì)抗訓(xùn)練,生成器生成的數(shù)據(jù)愈發(fā)逼真,判別器的鑒別能力也日益增強(qiáng),最終達(dá)到相對(duì)平衡狀態(tài)。對(duì)抗訓(xùn)練原理訓(xùn)練循環(huán)生成器生成假樣本,判別器輸出真?zhèn)胃怕?,生成器最大化被判真概率,判別器最小化分類誤差。雙方通過反向傳播同步更新權(quán)重,使假樣本在紋理、色彩等維度逐步逼近真實(shí)數(shù)據(jù)。參數(shù)更新經(jīng)過多次迭代,生成器生成的數(shù)據(jù)在視覺和語義上與真實(shí)數(shù)據(jù)高度相似,判別器難以區(qū)分真假。結(jié)果預(yù)訓(xùn)練與微調(diào)原理04預(yù)訓(xùn)練與微調(diào)原理

預(yù)訓(xùn)練過程以GPT系列為例,模型在通用文本語料上通過自回歸方式學(xué)習(xí)詞間語義、句間邏輯及語法結(jié)構(gòu)。優(yōu)勢(shì)預(yù)訓(xùn)練階段無需標(biāo)注數(shù)據(jù),可吸收語言共性,形成可遷移的語義空間,為下游任務(wù)提供通用基礎(chǔ)。生成模型基礎(chǔ)概念例如在醫(yī)療文本分類中,通過微調(diào)聚焦醫(yī)學(xué)術(shù)語與疾病邏輯,實(shí)現(xiàn)高精度專業(yè)輸出。應(yīng)用示例收集少量標(biāo)注數(shù)據(jù),調(diào)整預(yù)訓(xùn)練模型的頂層參數(shù),保持底層語義不變,適配具體下游任務(wù)。微調(diào)步驟微調(diào)后的模型能夠精準(zhǔn)完成特定任務(wù),同時(shí)保留預(yù)訓(xùn)練階段學(xué)到的通用知識(shí)。效果多模態(tài)融合原理05多模態(tài)融合原理

互補(bǔ)性圖像、文本、音頻等不同模態(tài)數(shù)據(jù)在信息密度與語義粒度上互補(bǔ),單一模態(tài)常面臨歧義或缺失,融合可提升生成內(nèi)容的準(zhǔn)確性與豐富度。動(dòng)機(jī)通過融合不同模態(tài)數(shù)據(jù),生成式AI能夠突破單一模態(tài)限制,生成更具綜合性、高質(zhì)量的內(nèi)容。多模態(tài)融合原理

將視覺特征和語義特征融合后輸入生成模型,生成既貼合畫面又符合語法的圖像描述。特征融合與生成通過CNN提取圖像中的關(guān)鍵視覺特征,如物體形狀、顏色、位置關(guān)系等。圖像特征提取利用NLP模型將文本描述轉(zhuǎn)化為語義特征,包括物體名稱、屬性描述、動(dòng)作行為等信息。文本語義解析6.3生成式模型架構(gòu)目錄4自動(dòng)化辦公5醫(yī)療診斷與醫(yī)學(xué)研究其他領(lǐng)域61文本生成2圖像與視頻生成音樂與音頻生成3生成對(duì)抗網(wǎng)絡(luò)01生成網(wǎng)絡(luò)的架構(gòu)生成對(duì)抗網(wǎng)絡(luò)由生成器(generator)和判別器(discriminator)兩個(gè)相互對(duì)抗的神經(jīng)網(wǎng)絡(luò)構(gòu)成。GAN的構(gòu)成01其核心思想源于博弈論中的二人零和博弈,生成器試圖生成與真實(shí)數(shù)據(jù)相似的數(shù)據(jù)樣本,判別器則努力區(qū)分輸入數(shù)據(jù)是真實(shí)數(shù)據(jù)還是生成數(shù)據(jù)。GAN的核心思想02兩者在對(duì)抗訓(xùn)練中不斷優(yōu)化,最終達(dá)到一種動(dòng)態(tài)平衡狀態(tài),即納什均衡。在這種均衡下,生成器生成的數(shù)據(jù)能夠以假亂真,判別器也難以準(zhǔn)確分辨數(shù)據(jù)的來源。GAN的動(dòng)態(tài)平衡03生成網(wǎng)絡(luò)的架構(gòu)生成器的主要任務(wù)生成器的主要任務(wù)是接收隨機(jī)噪聲作為輸入,通過一系列的神經(jīng)網(wǎng)絡(luò)變換,將噪聲向量映射到與真實(shí)數(shù)據(jù)相似的數(shù)據(jù)空間中,生成看似真實(shí)的數(shù)據(jù)樣本。例如,在圖像生成任務(wù)中,生成器將隨機(jī)噪聲向量轉(zhuǎn)化為具有特定分辨率和內(nèi)容的圖像;在文本生成中,將噪聲向量轉(zhuǎn)化為連貫的文本段落。生成器的目標(biāo)是欺騙判別器,使判別器誤以為生成的數(shù)據(jù)是真實(shí)數(shù)據(jù)。判別網(wǎng)絡(luò)的架構(gòu)判別器的主要任務(wù)判別網(wǎng)絡(luò),也就是判別器,負(fù)責(zé)對(duì)輸入的數(shù)據(jù)進(jìn)行真?zhèn)闻袛?。它接收來自真?shí)數(shù)據(jù)集的數(shù)據(jù)樣本以及生成器生成的數(shù)據(jù)樣本,通過自身的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)提取數(shù)據(jù)的特征,并利用分類器判斷輸入數(shù)據(jù)屬于真實(shí)數(shù)據(jù)分布還是生成數(shù)據(jù)分布。判別器的訓(xùn)練目標(biāo)是最大化區(qū)分真實(shí)數(shù)據(jù)和生成數(shù)據(jù)的能力,通過不斷優(yōu)化參數(shù),提高對(duì)兩類數(shù)據(jù)的鑒別準(zhǔn)確率。GAN相關(guān)重要概念對(duì)抗訓(xùn)練GAN的訓(xùn)練機(jī)制是生成器和判別器通過交替訓(xùn)練進(jìn)行對(duì)抗。在生成器訓(xùn)練階段,固定判別器參數(shù),生成器生成數(shù)據(jù)并輸入到判別器中,生成器的目標(biāo)是最大化判別器對(duì)生成數(shù)據(jù)的誤判概率;在判別器訓(xùn)練階段,固定生成器參數(shù),判別器接收真實(shí)數(shù)據(jù)和生成數(shù)據(jù),通過最小化分類損失來提高對(duì)兩類數(shù)據(jù)的區(qū)分能力。模式坍塌GAN訓(xùn)練過程中可能出現(xiàn)模式坍塌問題,即生成器只生成少數(shù)幾種模式的數(shù)據(jù),無法覆蓋真實(shí)數(shù)據(jù)的全部多樣性。為了避免模式坍塌,可以采用一些改進(jìn)的訓(xùn)練方法,如引入正則化項(xiàng)、多尺度訓(xùn)練、使用更復(fù)雜的網(wǎng)絡(luò)架構(gòu)等。評(píng)估算法InceptionScore的計(jì)算IS通過計(jì)算生成圖像類別分布的熵和生成圖像屬于真實(shí)類別的平均概率來評(píng)估GAN的性能。較高的IS值意味著生成圖像既具有高置信度又有高多樣性,表明GAN生成的圖像質(zhì)量較高且具有豐富的變化。InceptionScore的定義InceptionScore(IS)是一種廣泛應(yīng)用于評(píng)估生成對(duì)抗網(wǎng)絡(luò)(GAN)生成圖像質(zhì)量和多樣性的指標(biāo),其構(gòu)建基于預(yù)訓(xùn)練的Inception模型。變體FID的定義FID通過計(jì)算生成數(shù)據(jù)和真實(shí)數(shù)據(jù)在特征空間中的分布距離來衡量生成模型的優(yōu)劣。FID值越低,表明生成數(shù)據(jù)的分布與真實(shí)數(shù)據(jù)的分布越接近,生成模型的性能也就越好。KID的定義KID與FID類似,也是基于Inception模型的特征來評(píng)估生成數(shù)據(jù)與真實(shí)數(shù)據(jù)分布之間的差異,但它采用了核方法來進(jìn)行計(jì)算。KID對(duì)分布差異的檢測(cè)更為敏感,尤其在處理小樣本數(shù)據(jù)時(shí)表現(xiàn)出色。變體01DCGAN的定義深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGAN)對(duì)生成器和判別器的架構(gòu)進(jìn)行了規(guī)范化設(shè)計(jì),在生成器中使用反卷積層,在判別器中使用卷積層,并引入了批歸一化技術(shù),使得網(wǎng)絡(luò)訓(xùn)練過程更加穩(wěn)定,生成的圖像質(zhì)量更高。02CGAN的定義條件生成對(duì)抗網(wǎng)絡(luò)(CGAN)在生成器和判別器的輸入中引入額外的條件信息,如類別標(biāo)簽、文本描述等。通過這種方式,生成器能夠根據(jù)給定的條件生成特定類型的數(shù)據(jù)樣本,增強(qiáng)了生成模型的可控性。

自回歸模型(Transformer架構(gòu))02生成對(duì)抗網(wǎng)絡(luò)(GAN)Transformer架構(gòu)的特點(diǎn)Transformer架構(gòu)的核心特性是自注意力機(jī)制和多頭注意力,它能夠同時(shí)對(duì)序列中的多個(gè)元素進(jìn)行處理,極大地提升了計(jì)算效率,且通過自注意力機(jī)制,模型在處理每個(gè)位置時(shí),均可全方位關(guān)注序列中其他位置的信息,有效解決了長距離依賴問題。Transformer架構(gòu)的應(yīng)用Transformer架構(gòu)在自然語言處理(NLP)、計(jì)算機(jī)視覺(CV)等多模態(tài)生成任務(wù)中大放異彩。在NLP領(lǐng)域,從基礎(chǔ)的文本分類、情感分析,到復(fù)雜的機(jī)器翻譯、問答系統(tǒng)、文本生成等任務(wù),Transformer都展現(xiàn)出了卓越的性能;在CV領(lǐng)域,其在圖像描述生成、目標(biāo)檢測(cè)、圖像分割等任務(wù)中也取得了令人矚目的成果。生成對(duì)抗網(wǎng)絡(luò)(GAN)自注意力機(jī)制的工作原理自注意力機(jī)制通過線性變換生成查詢、鍵、值向量,然后計(jì)算注意力權(quán)重,將每個(gè)位置的輸入向量轉(zhuǎn)化為對(duì)應(yīng)的查詢、鍵和值向量,為后續(xù)的注意力計(jì)算奠定基礎(chǔ)。自注意力機(jī)制的優(yōu)勢(shì)自注意力機(jī)制賦予模型在處理序列中每個(gè)位置時(shí),動(dòng)態(tài)關(guān)注序列中其他所有位置信息的強(qiáng)大能力,真正實(shí)現(xiàn)了對(duì)序列信息的全局感知與深度融合。生成對(duì)抗網(wǎng)絡(luò)(GAN)01多頭注意力機(jī)制的定義多頭注意力機(jī)制是在自注意力機(jī)制基礎(chǔ)上進(jìn)行的一次重大升級(jí)與拓展,它通過在多個(gè)不同的子空間中并行應(yīng)用多個(gè)自注意力機(jī)制,然后將這些不同視角的結(jié)果巧妙拼接整合,極大地增強(qiáng)了模型的表達(dá)能力和學(xué)習(xí)能力。02多頭注意力機(jī)制的優(yōu)勢(shì)每個(gè)頭的自注意力機(jī)制都可視為一個(gè)獨(dú)立且專注的觀察者,它們從各自獨(dú)特的視角關(guān)注序列中不同類型的依賴關(guān)系,從而使模型能夠更全面、深入地捕捉序列中的復(fù)雜特征與依賴關(guān)系。生成對(duì)抗網(wǎng)絡(luò)(GAN)位置嵌入的作用位置嵌入技術(shù)為模型提供序列位置信息,使其能夠準(zhǔn)確理解序列中元素的相對(duì)位置關(guān)系。位置嵌入的生成方式位置嵌入通常有兩種生成方式,一種是基于正弦和余弦函數(shù)的確定性生成方式,另一種是通過模型學(xué)習(xí)得到的自適應(yīng)生成方式。生成對(duì)抗網(wǎng)絡(luò)(GAN)BERT的定義BERT作為一種基于Transformer的預(yù)訓(xùn)練模型,在自然語言處理領(lǐng)域表現(xiàn)卓越。它僅采用了Transformer的編碼器部分,通過獨(dú)特的雙向上下文學(xué)習(xí)方式來生成詞嵌入。BERT的預(yù)訓(xùn)練任務(wù)BERT在預(yù)訓(xùn)練階段精心設(shè)計(jì)了掩碼語言模型和下一句預(yù)測(cè)兩種任務(wù),通過大量樣本的訓(xùn)練,模型能夠深度挖掘單詞在豐富上下文環(huán)境中的語義表示,極大地增強(qiáng)了對(duì)語言的理解和把握能力。生成對(duì)抗網(wǎng)絡(luò)(GAN)GPT的應(yīng)用GPT在預(yù)訓(xùn)練過程中通過不斷地預(yù)測(cè)下一個(gè)單詞,逐步探索和學(xué)習(xí)語言的內(nèi)在模式和規(guī)律。它在對(duì)話系統(tǒng)、寫作輔助等領(lǐng)域表現(xiàn)出色,能夠生成高質(zhì)量、連貫且富有邏輯性的文本。GPT的定義GPT是另一種基于Transformer的預(yù)訓(xùn)練模型,專注于文本生成任務(wù)。它采用了Transformer的解碼器部分,通過自回歸生成方式,有條不紊地逐步生成文本序列。6.4生成式人工智能的應(yīng)用目錄4自動(dòng)化辦公5醫(yī)療診斷與醫(yī)學(xué)研究其他領(lǐng)域61文本生成2圖像與視頻生成音樂與音頻生成3文本生成01文本生成ChatGPT能夠根據(jù)用戶輸入的主題和內(nèi)容要點(diǎn),快速生成格式規(guī)范、語言得體的郵件正文,平均撰寫時(shí)間縮短近半,同時(shí)確保信息準(zhǔn)確性和專業(yè)性。郵件撰寫通過語音識(shí)別和自然語言處理技術(shù),ChatGPT可實(shí)時(shí)識(shí)別會(huì)議語音內(nèi)容,精準(zhǔn)提取關(guān)鍵信息,生成條理清晰的會(huì)議紀(jì)要,提高工作效率。會(huì)議紀(jì)要ChatGPT能夠根據(jù)客戶的不同需求和反饋信息,靈活調(diào)整回復(fù)策略,實(shí)現(xiàn)個(gè)性化溝通,提升用戶體驗(yàn)和企業(yè)形象。個(gè)性化溝通圖像與視頻生成02圖像生成廣告海報(bào)生成用戶輸入簡單描述,生成式AI即可快速生成創(chuàng)意十足的廣告海報(bào)圖像,滿足不同市場(chǎng)定位需求,大大縮短廣告創(chuàng)意策劃周期。媒體配圖生成式AI為新聞報(bào)道、雜志插畫等生成高質(zhì)量圖像,豐富視覺元素,提升內(nèi)容吸引力和傳播力,降低媒體制作成本。視頻生成游戲場(chǎng)景生成生成式AI根據(jù)關(guān)鍵詞描述,自動(dòng)生成包含豐富細(xì)節(jié)的游戲場(chǎng)景,如奇幻森林、未來都市等,顯著縮短游戲開發(fā)周期。AI可快速生成符合主題的影視片頭視頻,提供多種風(fēng)格選擇,助力影視制作團(tuán)隊(duì)高效完成前期工作,提升創(chuàng)作效率。影視片頭制作用戶輸入文字描述,生成式AI生成生動(dòng)有趣的短視頻片段,滿足社交媒體內(nèi)容需求,為創(chuàng)作者提供豐富素材。短視頻創(chuàng)作音樂與音頻生成03音頻生成生成式AI可一次性完成作詞、作曲、編曲及混音,為音樂創(chuàng)作者提供零門檻創(chuàng)作環(huán)境,激發(fā)創(chuàng)作靈感。音樂創(chuàng)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論