版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)
文檔簡介
第1版·微課版生成式人工智能基礎(chǔ)第2章周蘇教授QQ:81505050生成式AI與AIGC本章深入探討了生成式人工智能(生成式AI)與人工智能生成內(nèi)容(AIGC)的關(guān)鍵概念、技術(shù)發(fā)展、應(yīng)用場景以及面臨的倫理挑戰(zhàn)。通過Blockhead思維實驗引出對智能本質(zhì)的思考,指出LLM雖在文本生成中表現(xiàn)出色,但存在數(shù)據(jù)污染等問題。接著,回顧了NLP從基于規(guī)則的方法到統(tǒng)計方法,再到深度學(xué)習(xí)方法的演變歷程,強調(diào)LLM在NLP領(lǐng)域的里程碑意義。第2章生成式AI與AIGC本章中闡述了LLM的定義、核心特征,以及生成式AI與判別式AI的區(qū)別,明確了生成式AI的定義、應(yīng)用場景、未來發(fā)展趨勢及倫理挑戰(zhàn),并對AIGC進行了定義,探討了其關(guān)鍵步驟、廣泛應(yīng)用場景以及與生成式AI的緊密聯(lián)系。在很多語境下,AIGC也被用于指代生成式AI。第2章生成式AI與AIGC此外,本章還分析了生成式AI的層次結(jié)構(gòu),包括應(yīng)用層、平臺層、模型層和基礎(chǔ)設(shè)施層,并討論了AIGC在內(nèi)容生成領(lǐng)域的具體應(yīng)用,如內(nèi)容孿生、內(nèi)容編輯和內(nèi)容理解,展示了其在多模態(tài)內(nèi)容生成中的潛力。最后,總結(jié)了AIGC在文本、音頻、圖像、視頻、代碼生成等多個領(lǐng)域的廣泛應(yīng)用場景,強調(diào)其在推動內(nèi)容創(chuàng)作方式變革中的重要作用。第2章生成式AI與AIGC01Blockhead思維實驗02從自然語言處理起步03生成式人工智能04智能內(nèi)容生成目錄/CONTENTS05生成式AI應(yīng)用場景PART01Blockhead思維實驗在任何現(xiàn)有或想象中的未來計算機系統(tǒng)中,存儲數(shù)千個單詞的所有可能序列都是不現(xiàn)實的:與之相比,這些序列的數(shù)量使得宇宙中的原子數(shù)量都看起來是微不足道的。因此,研究人員重新利用神經(jīng)網(wǎng)絡(luò)的試驗和真實方法,將這些巨大的集合減少到更易管理的形式。神經(jīng)網(wǎng)絡(luò)最初被應(yīng)用于解決分類問題——決定某物是什么,例如輸入一張圖片,網(wǎng)絡(luò)將確定它是狗還是貓的圖像。神經(jīng)網(wǎng)絡(luò)必須以一種使相關(guān)的輸入產(chǎn)生相似結(jié)果的方式來壓縮數(shù)據(jù)。2.1Blockhead思維實驗1981年,內(nèi)德·布洛克構(gòu)建了一個“Blockhead(傻瓜)”假說——假定科學(xué)家們通過編程,在Blockhead內(nèi)預(yù)先設(shè)定好了近乎所有問題的答案,那么,當(dāng)它回答問題的時候,人們也許就根本無法區(qū)分是Blockhead還是人類在回答問題。顯然,這里的Blockhead并不被認(rèn)為是智能的,因為它回答問題的方式僅僅是從其龐大的記憶知識庫中檢索并復(fù)述,并非通過理解問題之后給出答案。哲學(xué)家們一致認(rèn)為,這樣的系統(tǒng)不符合智能的標(biāo)準(zhǔn)。2.1Blockhead思維實驗對于多年來一直在思考AI的哲學(xué)家來說,GPT-x(各種版本的GPT軟件)就像是一個已經(jīng)實現(xiàn)了的思維實驗。實際上,GPT-x的許多成就就是通過類似的內(nèi)存檢索操作產(chǎn)生的。GPT-x的訓(xùn)練集中包括了數(shù)億個人類個體生成的對話和數(shù)以千計的學(xué)術(shù)出版物,涵蓋了潛在的問答對。研究發(fā)現(xiàn),深度神經(jīng)網(wǎng)絡(luò)多層結(jié)構(gòu)的設(shè)計使其能夠有效地從訓(xùn)練數(shù)據(jù)中檢索到正確答案。這表明,GPT-x的回答其實是通過近似甚至是精確復(fù)制訓(xùn)練集中的樣本生成的。2.1Blockhead思維實驗如果GPT-x真的是以這種方式運行,那么它就只是Blockhead的現(xiàn)實版本。由此,人們在評估LLM時存在一個關(guān)鍵問題:它的訓(xùn)練集中可能包含了評估時使用的測試問題,即“數(shù)據(jù)污染”,而這些問題應(yīng)該在評估之前予以排除。事實上,LLM不僅可以簡單地復(fù)述其提示的或訓(xùn)練集的大部分內(nèi)容,它們還能夠靈活地融合來自訓(xùn)練集的內(nèi)容,產(chǎn)生新的輸出。許多經(jīng)驗主義哲學(xué)家提出,能夠靈活復(fù)制先前經(jīng)驗中的抽象模式,可能不僅是智能的基礎(chǔ),還是創(chuàng)造力和理性決策的基礎(chǔ)。2.1Blockhead思維實驗PART02從自然語言處理起步NLP(自然語言處理)是一門研究如何讓計算機理解、生成和分析人類自然語言的學(xué)科,它是AI和計算機科學(xué)的重要分支。NLP的發(fā)展經(jīng)歷了從基于規(guī)則的方法到統(tǒng)計方法,再到深度學(xué)習(xí)方法的轉(zhuǎn)變。LLM的興起標(biāo)志著NLP領(lǐng)域的一個重要里程碑,它們代表了深度學(xué)習(xí)方法在處理自然語言上的最新進展。2.2從自然語言處理起步NLP研究的主要內(nèi)容大致可以分為以下幾個方面。隨著技術(shù)的不斷進步,新的研究方向和應(yīng)用場景也在不斷涌現(xiàn)。(1)文本預(yù)處理:這是NLP的基礎(chǔ)步驟,包括文本清洗(去除無關(guān)字符、標(biāo)點符號等)、分詞(將文本切分成單詞或詞匯單元)、詞性標(biāo)注(為每個詞匯分配語法類別,如名詞、動詞等)、命名實體識別(識別文本中的特定實體,如人名、地點、組織機構(gòu)名等)。2.2.1NLP研究內(nèi)容(2)詞法分析:如何分析詞匯的形式和意義,包括詞干提?。▽⒃~匯還原為其詞根形式)、詞形還原(將詞匯還原為標(biāo)準(zhǔn)詞典形式)等。(3)句法分析:分析句子的結(jié)構(gòu)和組成成分,包括句法樹結(jié)構(gòu)的構(gòu)建、依存關(guān)系分析(確定詞匯間的語法關(guān)系)等。(4)語義分析:理解文本的深層含義,包括情感分析(判斷文本的情感傾向)、主題抽?。ㄗR別文本的主題內(nèi)容)、篇章理解(理解長篇文本的連貫性和邏輯關(guān)系)等。2.2.1NLP研究內(nèi)容(5)自然語言生成:將非自然語言形式的信息轉(zhuǎn)換成自然語言文本,如自動生成報告、新聞?wù)?、對話?yīng)答等。(6)機器翻譯:將一種自然語言自動轉(zhuǎn)換為另一種自然語言,這是NLP的重要應(yīng)用之一。(7)對話系統(tǒng):構(gòu)建能夠與人類進行自然對話的系統(tǒng),包括聊天機器人、語音助手等,涉及對話管理、上下文理解、自然語言生成等技術(shù)。(8)信息檢索與過濾:從大量文本中找出與查詢條件相匹配的信息,如搜索引擎、推薦系統(tǒng)等。2.2.1NLP研究內(nèi)容(9)語音識別與語音合成:將語音信號轉(zhuǎn)換為文本(語音識別),或?qū)⑽谋巨D(zhuǎn)換為語音信號(語音合成)。(10)知識圖譜與語義網(wǎng):構(gòu)建和利用知識圖譜來增強機器對世界的理解和推理能力,用于問答系統(tǒng)、智能推薦等場景。(11)深度學(xué)習(xí)模型:使用深度神經(jīng)網(wǎng)絡(luò)(如RNN、LSTM、Transformer等)來處理自然語言任務(wù),包括語言模型、詞向量表示(如Word2Vec、GloVe)、注意力機制等。2.2.1NLP研究內(nèi)容早期的NLP系統(tǒng)依賴于手工編寫的規(guī)則來解析和理解語言。這些規(guī)則基于語言學(xué)理論,試圖直接編碼語法和語義規(guī)則,但這種方法難以擴展到大規(guī)模文本和處理語言的靈活性。隨著數(shù)據(jù)量的增長和計算能力的提升,統(tǒng)計方法開始主導(dǎo)NLP領(lǐng)域。這些方法利用概率模型來處理語言,比如n元模型,能夠更好地處理語言的變異性,但仍然有局限性,尤其是在處理長距離依賴和復(fù)雜語言結(jié)構(gòu)時。2.2.2深度學(xué)習(xí)的影響深度學(xué)習(xí)對NLP領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響,徹底改變了人們處理、理解和生成人類語言的方式。深度學(xué)習(xí)對NLP影響的幾個關(guān)鍵點如下。(1)提升理解能力:深度學(xué)習(xí)模型,尤其是基于Transformer架構(gòu)的模型如BERT、GPT系列等,能夠?qū)W習(xí)到語言的深層結(jié)構(gòu)和語境依賴性,極大地提升了計算機理解復(fù)雜語言任務(wù)的能力,比如問答系統(tǒng)、文本蘊含判斷和語義理解。2.2.2深度學(xué)習(xí)的影響(2)文本生成與創(chuàng)意寫作:通過使用序列到序列模型(seq2seq)結(jié)合注意力機制,深度學(xué)習(xí)模型能夠生成連貫、有邏輯的文本,應(yīng)用于文章創(chuàng)作、新聞?wù)伞υ捪到y(tǒng)響應(yīng)生成等,甚至可以模仿特定風(fēng)格或作者的寫作風(fēng)格。(3)詞嵌入與表征學(xué)習(xí):詞嵌入技術(shù)(如Word2Vec、GloVe)以及更先進的上下文敏感的詞嵌入(如BERT中的詞塊嵌入)為詞語提供了高維向量表示,這些表示能夠捕捉詞匯之間的語義和語法關(guān)系,使得模型能夠更好地理解和處理文本,為深度學(xué)習(xí)應(yīng)用于NLP奠定了基礎(chǔ)。2.2.2深度學(xué)習(xí)的影響(4)情感分析與語義理解:深度學(xué)習(xí)模型能夠更準(zhǔn)確地識別文本中的情緒、態(tài)度和觀點,這對于社交媒體分析、客戶服務(wù)、產(chǎn)品反饋分析等領(lǐng)域至關(guān)重要,幫助企業(yè)和機構(gòu)更好地理解用戶需求和市場趨勢。(5)機器翻譯:基于神經(jīng)網(wǎng)絡(luò)的機器翻譯系統(tǒng),如Transformer模型,相比傳統(tǒng)的統(tǒng)計機器翻譯方法,能夠提供更流暢、更準(zhǔn)確的翻譯結(jié)果,大大推進了跨語言溝通的便利性。2.2.2深度學(xué)習(xí)的影響(6)對話系統(tǒng)與聊天機器人:深度學(xué)習(xí)技術(shù)使得聊天機器人更加智能化,能夠進行多輪對話、理解用戶意圖并作出恰當(dāng)反應(yīng),改善了用戶體驗,廣泛應(yīng)用于客戶服務(wù)、教育、娛樂等多個行業(yè)。(7)命名實體識別與信息抽?。荷疃葘W(xué)習(xí)模型在識別文本中的命名實體(如人名、地點、組織機構(gòu)等)和抽取關(guān)鍵信息方面展現(xiàn)出了強大性能,對于構(gòu)建知識圖譜、信息檢索和智能文檔處理等應(yīng)用極為重要。2.2.2深度學(xué)習(xí)的影響(8)解決數(shù)據(jù)稀疏性問題:盡管NLP任務(wù)常面臨數(shù)據(jù)稀疏性(指數(shù)據(jù)框中絕大多數(shù)數(shù)值缺失或者為零的數(shù)據(jù))挑戰(zhàn),深度學(xué)習(xí)模型通過學(xué)習(xí)更高級別的抽象特征,能在一定程度上緩解這一問題,尤其是在少數(shù)族裔語言、專業(yè)領(lǐng)域術(shù)語等方面。(9)模型可擴展性與遷移學(xué)習(xí):預(yù)訓(xùn)練的LLM,如T5、BERT等,通過遷移學(xué)習(xí)策略,能夠在少量樣本上快速適應(yīng)新的任務(wù),降低了特定領(lǐng)域應(yīng)用的門檻,加速NLP技術(shù)的普及和應(yīng)用。2.2.2深度學(xué)習(xí)的影響(10)持續(xù)推動技術(shù)創(chuàng)新:深度學(xué)習(xí)的引入激發(fā)了一系列研究和開發(fā)活動,不斷推動NLP技術(shù)邊界,包括但不限于模型結(jié)構(gòu)創(chuàng)新、訓(xùn)練策略優(yōu)化、計算效率提升等,為未來的自然語言處理技術(shù)發(fā)展奠定了堅實基礎(chǔ)。2.2.2深度學(xué)習(xí)的影響源自NLP,LLM是近年來AI領(lǐng)域的一項重要進展,是一種基于機器學(xué)習(xí)、深度學(xué)習(xí)和NLP技術(shù)的先進AI模型。這類模型具有大規(guī)模參數(shù)和復(fù)雜結(jié)構(gòu),其參數(shù)數(shù)量可達到數(shù)十億乃至數(shù)萬億之多。經(jīng)過大規(guī)模的文本數(shù)據(jù)訓(xùn)練,通過深度學(xué)習(xí)架構(gòu),其中尤其是Transformer模型,LLM能夠?qū)W習(xí)到自然語言的復(fù)雜特征、模式和結(jié)構(gòu)。其設(shè)計目的是廣泛理解和生成類似于人類的自然語言,從而在多種NLP任務(wù)中展現(xiàn)卓越性能,而無需針對每個任務(wù)單獨編程。2.2.3LLM崛起如今,LLM已被應(yīng)用于各種場景,極大地推動了AI的實用化進程,也對模型的效率、經(jīng)濟成本、倫理和隱私等方面提出了新的挑戰(zhàn)。隨著技術(shù)的持續(xù)發(fā)展,LLM正逐步成為AI領(lǐng)域的重要基石、NLP領(lǐng)域的新常態(tài),不斷拓展人類與機器交互的邊界,推動著從個人助手、客戶服務(wù)、內(nèi)容創(chuàng)造到教育、醫(yī)療等眾多行業(yè)和領(lǐng)域的創(chuàng)新與發(fā)展。2.2.3LLM崛起LLM能夠完成從簡單的問答、文本翻譯到復(fù)雜的對話、文本創(chuàng)作等多種任務(wù)。例如,OpenAI的GPT系列、阿里云的通義千問等,都是此類模型的代表。它們的核心優(yōu)勢在于能夠捕捉語言的細(xì)微差別、對語言的泛化理解、上下文敏感的生成以及一定程度的創(chuàng)造性表達。這使得它們在處理自然語言時更為靈活和準(zhǔn)確,此外還能在一定程度上展現(xiàn)邏輯思維、推理能力和創(chuàng)造性。2.2.3LLM崛起實際上,“大語言模型”和“通用語言模型”這兩個術(shù)語在很多情況下可以看作是同義或高度相關(guān)的概念,在實際討論中,兩者常常被交互使用。不過,為了細(xì)微區(qū)分,我們可以這樣理解:前者往往指的是模型的技術(shù)特征,強調(diào)其規(guī)模和技術(shù)復(fù)雜度,而后者則更多地描述了模型的應(yīng)用范圍和靈活性。2.2.3LLM崛起在LLM的上下文中,“大”主要有兩層含義。一方面,它指的是模型的參數(shù)數(shù)量通常會非常大,這使得模型能夠?qū)W習(xí)和表示語言中細(xì)微且非常復(fù)雜的模式。另一方面,“大”也指的是訓(xùn)練數(shù)據(jù)的規(guī)模,它通常在來自互聯(lián)網(wǎng)、書籍、新聞等各種來源的大規(guī)模文本數(shù)據(jù)上進行訓(xùn)練。2.2.3LLM特征LLM的核心特征還包括:(1)深度學(xué)習(xí)架構(gòu):它們通?;谙冗M的神經(jīng)網(wǎng)絡(luò)架構(gòu),尤其是Transformer模型,該架構(gòu)擅長處理序列數(shù)據(jù),通過自注意力機制理解長距離的依賴關(guān)系。(2)無監(jiān)督預(yù)訓(xùn)練:首先在大量未標(biāo)注文本上進行無監(jiān)督學(xué)習(xí),預(yù)訓(xùn)練讓模型學(xué)習(xí)語言的統(tǒng)計規(guī)律和潛在結(jié)構(gòu),之后可以根據(jù)具體任務(wù)進行有監(jiān)督的微調(diào)。2.2.3LLM特征(3)生成與理解并重:既能根據(jù)上下文生成連貫、有邏輯的新文本,也能理解輸入文本的意義,進行精準(zhǔn)的語義解析和信息提取。(4)持續(xù)學(xué)習(xí)與適應(yīng)性:具有持續(xù)學(xué)習(xí)能力,可以通過接收新數(shù)據(jù)不斷優(yōu)化和擴展知識,保持模型的時效性和準(zhǔn)確性。2.2.3LLM特征PART03生成式人工智能生成式人工智能(生成式AI)是近年來備受社會矚目的技術(shù)領(lǐng)域,它利用深度學(xué)習(xí)和大數(shù)據(jù)等技術(shù),能夠自主生成全新的、具有創(chuàng)新性的內(nèi)容。這些新數(shù)據(jù)或內(nèi)容與訓(xùn)練數(shù)據(jù)具有相似的特征但并非完全相同,可以是文本、圖像、音頻等形式。2.3生成式人工智能判別式AI是一種專注于學(xué)習(xí)輸入數(shù)據(jù)與輸出標(biāo)簽之間映射關(guān)系的AI方法。它主要關(guān)注如何從給定的輸入中準(zhǔn)確地預(yù)測或分類輸出,而不試圖理解生成這些數(shù)據(jù)的底層概率分布。判別式模型直接學(xué)習(xí)從特征到類別的決策邊界,因此它們在許多實際應(yīng)用中表現(xiàn)出色,尤其是在需要高精度和快速響應(yīng)的任務(wù)上。2.3.1什么是判別式AI判別式AI的特點主要如下。(1)直接映射:直接從輸入特征空間映射到輸出類別或值,如圖像分類、語音識別等任務(wù)。(2)高效訓(xùn)練:通常比生成式模型更容易訓(xùn)練,因為它們不需要建模整個數(shù)據(jù)分布。(3)高精度:在特定任務(wù)上的表現(xiàn)優(yōu)于生成式模型,特別是在大量標(biāo)注數(shù)據(jù)可用的情況下。(4)廣泛應(yīng)用:廣泛應(yīng)用于NLP、計算機視覺、推薦系統(tǒng)等領(lǐng)域。2.3.1什么是判別式AI常見的判別式模型主要如下。(1)支持向量機(SVM):尋找最優(yōu)超平面以最大化不同類別之間的間隔,適用于線性和非線性分類問題。(2)邏輯回歸:用于二分類或多分類問題,通過估計事件發(fā)生的概率來進行預(yù)測。(3)神經(jīng)網(wǎng)絡(luò):包括多層感知器(MLP)、卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)及其變體,如長短期記憶網(wǎng)絡(luò)(LSTM),廣泛應(yīng)用于各種復(fù)雜的模式識別任務(wù)。2.3.1什么是判別式AI(4)隨機森林:由多個決策樹組成,通過對各棵樹的結(jié)果進行投票來做出最終預(yù)測,具有較強的抗過擬合能力。(5)梯度提升決策樹(GBDT):通過迭代地添加新的弱學(xué)習(xí)器來逐步改進模型性能,常用于結(jié)構(gòu)化數(shù)據(jù)分析。(6)深度學(xué)習(xí)中的變換器(Transformer):特別適合處理序列數(shù)據(jù),如文本和時間序列,在自然語言處理領(lǐng)域取得了巨大成功。(7)線性判別分析(LDA):一種經(jīng)典的降維技術(shù),也可作為監(jiān)督學(xué)習(xí)算法用于分類任務(wù)。2.3.1什么是判別式AI判別式AI的應(yīng)用場景主要如下。(1)圖像分類:使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)對圖片內(nèi)容進行分類,例如區(qū)分貓狗照片。(2)情感分析:基于文本的情感分類任務(wù),如判斷評論是正面還是負(fù)面。(3)語音識別:將音頻信號轉(zhuǎn)換為文字轉(zhuǎn)錄,涉及聲學(xué)模型和語言模型的結(jié)合。(4)推薦系統(tǒng):根據(jù)用戶的歷史行為和其他相關(guān)因素推薦商品或內(nèi)容。(5)醫(yī)療診斷輔助:分析醫(yī)學(xué)影像或患者病歷信息,幫助醫(yī)生做出更準(zhǔn)確的診斷。2.3.1什么是判別式AI判別式AI的優(yōu)勢主要是:?高性能:在很多情況下,判別式模型能夠提供更高的準(zhǔn)確率和更快的速度。?簡單易用:相比生成式模型,判別式模型通常更易于實現(xiàn)和優(yōu)化。?針對性強:針對具體任務(wù)定制,可以達到非常好的效果。2.3.1什么是判別式AI而它的局限性主要如下:?缺乏泛化能力:對于未見過的數(shù)據(jù)類型或異常情況,可能表現(xiàn)不佳。?依賴標(biāo)注數(shù)據(jù):大多數(shù)判別式模型需要大量標(biāo)注數(shù)據(jù)來進行有效訓(xùn)練。?難以解釋:尤其是復(fù)雜模型,如深度神經(jīng)網(wǎng)絡(luò),其內(nèi)部運作機制較難解釋,存在“黑箱”問題。判別式AI因其高效性和準(zhǔn)確性,在眾多應(yīng)用場景中占據(jù)重要地位。然而,隨著技術(shù)的發(fā)展,人們也在探索如何結(jié)合生成式模型的優(yōu)勢,開發(fā)出更加全面和強大的AI系統(tǒng)。2.3.1什么是判別式AI定義:生成式AI是AI的一個分支,是一種基于機器學(xué)習(xí)的方法,它通過學(xué)習(xí)大量數(shù)據(jù),能夠生成與原始數(shù)據(jù)相似的全新內(nèi)容。這種技術(shù)可以應(yīng)用于多個領(lǐng)域,如NLP、圖像生成、音頻合成等。2.3.2定義生成式AI如圖2-1所示,判別模型需要求出一條決策邊界,而生成模型需要計算聯(lián)合概率分布。與傳統(tǒng)的判別式AI相比,生成式AI更注重于創(chuàng)造和生成,而非簡單的分類和識別,它專注于學(xué)習(xí)現(xiàn)有數(shù)據(jù)集的模式并基于這些模式創(chuàng)造新的、之前未存在的內(nèi)容。這種技術(shù)使得機器能夠模仿創(chuàng)造性過程,生成包括但不限于文本、圖像、音頻和視頻的各種類型的內(nèi)容。生成式模型通過深度學(xué)習(xí)網(wǎng)絡(luò),如變分自編碼器(VAEs)、生成對抗網(wǎng)絡(luò)(GANs)或Transformer模型(如ChatGPT)等,來實現(xiàn)這一目標(biāo)的。2.3.2定義生成式AI
圖2-1判別模型(左)與生成模型2.3.2定義生成式AI生成式AI的主要應(yīng)用場景如下。(1)文本生成:可以生成各種類型的文本,如新聞報道、小說、詩歌等。這種技術(shù)可以大大提高文本創(chuàng)作的效率和質(zhì)量,為內(nèi)容創(chuàng)作者提供更多的靈感和選擇。(2)圖像生成:能夠根據(jù)用戶的描述或輸入的關(guān)鍵詞,生成符合要求的圖像。這種技術(shù)在設(shè)計、藝術(shù)等領(lǐng)域具有廣泛的應(yīng)用前景。(3)音頻合成:可以模擬各種聲音,生成逼真的語音、音樂等音頻內(nèi)容。這對于語音助手、音樂創(chuàng)作等領(lǐng)域具有重要意義。2.3.2定義生成式AI生成式AI的未來發(fā)展趨勢包括:(1)技術(shù)創(chuàng)新:隨著深度學(xué)習(xí)、強化學(xué)習(xí)等技術(shù)的不斷發(fā)展,生成式AI的性能將得到進一步提升。未來,人們可以期待更加高效、精準(zhǔn)的生成式AI模型的出現(xiàn)。(2)應(yīng)用拓展:生成式AI將在更多領(lǐng)域得到應(yīng)用,如虛擬現(xiàn)實、增強現(xiàn)實、自動駕駛等。這些應(yīng)用將進一步提升生成式AI的實用價值和社會影響力。2.3.2定義生成式AI(3)倫理挑戰(zhàn):隨著生成式AI的普及,我們也需要關(guān)注其可能帶來的倫理挑戰(zhàn)。例如,如何確保生成的內(nèi)容符合道德和法律要求,如何保護原創(chuàng)作品的權(quán)益等。2.3.2定義生成式AI作為一種新興的技術(shù)領(lǐng)域,生成式AI帶來了許多創(chuàng)新和機遇,具有廣闊的應(yīng)用前景和巨大的發(fā)展?jié)摿?。但是,生成式AI也存在一些潛在的風(fēng)險和挑戰(zhàn),因此,需要在推進生成式AI應(yīng)用的同時,不斷創(chuàng)新和完善生成式AI技術(shù),加強風(fēng)險管理和監(jiān)管,推動其健康、可持續(xù)的發(fā)展。首先,對于生成式AI生成的內(nèi)容需要建立有效的審核機制,確保其內(nèi)容符合法律法規(guī)和道德標(biāo)準(zhǔn)。同時,也需要加強對原創(chuàng)作品的保護,防止侵權(quán)行為的發(fā)生。2.3.2定義生成式AI其次,還需要關(guān)注生成式AI的濫用問題。例如,一些人可能會利用生成式AI生成虛假信息或進行惡意攻擊。因此,我們需要加強技術(shù)監(jiān)管和法律制約,防止生成式AI被用于非法活動。最后,我們還需要加強公眾對生成式AI的認(rèn)知和了解。通過普及相關(guān)知識,提高公眾的辨識能力和風(fēng)險意識,可以更好地應(yīng)對生成式AI帶來的挑戰(zhàn)和風(fēng)險。2.3.2定義生成式AI生成式AI是一個充滿機遇和挑戰(zhàn)的領(lǐng)域。通過深入了解其基本概念、應(yīng)用場景以及未來發(fā)展趨勢,我們可以更好地把握這一技術(shù)的發(fā)展脈搏,為未來的創(chuàng)新和發(fā)展提供有力支持。2.3.2定義生成式AI為了更全面地了解生成式AI領(lǐng)域,分析該技術(shù)的價值鏈,考慮將其分為四個相互關(guān)聯(lián)的層,即應(yīng)用層、平臺層、模型層和基礎(chǔ)設(shè)施層,它們共同創(chuàng)造新內(nèi)容,其中每一層在整個過程中都發(fā)揮著獨特作用。2.3.3生成式AI的層次1.應(yīng)用層生成式AI的應(yīng)用層通過允許動態(tài)創(chuàng)建內(nèi)容來使用專門算法實現(xiàn)簡化人類與AI的交互。這些算法提供了定制和自動化的企業(yè)對企業(yè)(B2B)和企業(yè)對消費者(B2C)應(yīng)用程序和服務(wù),而用戶無需直接訪問底層基礎(chǔ)模型。這些應(yīng)用程序的開發(fā)可以由基礎(chǔ)模型的所有者(例如ChatGPT的OpenAI)和包含生成式AI模型的第三方軟件公司(例如JasperAI)來承擔(dān)。2.3.3生成式AI的層次生成式AI的應(yīng)用層由通用應(yīng)用程序、特定領(lǐng)域應(yīng)用程序和集成應(yīng)用程序三個不同子組組成。(1)通用應(yīng)用程序:包括旨在執(zhí)行廣泛任務(wù)的軟件,以各種形式生成新內(nèi)容。此類示例包括ChatGPT、DALL-E2、GitHubCopilot、Character.ai(一種聊天機器人服務(wù),允許用戶創(chuàng)建AI角色并與之交談)和JasperAI(一種AI驅(qū)動的寫作工具)。2.3.3生成式AI的層次(2)特定領(lǐng)域的應(yīng)用程序:這些是為滿足特定行業(yè)(如金融、醫(yī)療保健、制造和教育)的特定需求和要求而量身定制的軟件解決方案。這些應(yīng)用程序在各自的領(lǐng)域更加專業(yè)化和響應(yīng)更快,特別是當(dāng)公司對它們進行高質(zhì)量、獨特和專有數(shù)據(jù)的培訓(xùn)時。例子包括金融數(shù)據(jù)分析的BloombergGPT以及谷歌的接受醫(yī)療數(shù)據(jù)訓(xùn)練以回答醫(yī)療查詢的Med-PaLM2。2.3.3生成式AI的層次(3)集成應(yīng)用程序:該子組由現(xiàn)有軟件解決方案組成,其中融入了生成式AI功能以增強其主流產(chǎn)品。主要示例包括微軟365Copilot(適用于各種微軟產(chǎn)品的AI驅(qū)動助手)、Salesforce的EinsteinGPT(生成式AICRM技術(shù))以及Adobe與Photoshop的生成式AI集成。2.3.3生成式AI的層次2.平臺層生成式AI的平臺層主要致力于通過托管服務(wù)提供對LLM的訪問。這項服務(wù)簡化了通用預(yù)訓(xùn)練基礎(chǔ)模型(如OpenAI的GPT)的微調(diào)和定制過程。盡管領(lǐng)先的LLM,如GPT-4,可以僅使用其經(jīng)過訓(xùn)練的鎖定數(shù)據(jù)集立即回答大多數(shù)問題,但通過微調(diào),可以顯著提升這些LLM在特定內(nèi)容領(lǐng)域的能力。2.3.3生成式AI的層次微調(diào)涉及解鎖現(xiàn)有LLM的神經(jīng)網(wǎng)絡(luò),使用新數(shù)據(jù)進行額外的訓(xùn)練。最終用戶或公司可以將其專有或客戶特定的數(shù)據(jù)無縫集成到這些模型中,以用于定向應(yīng)用。平臺層的最終目標(biāo)是簡化LLM的使用,降低最終用戶或公司的相關(guān)成本。這種方法消除了獨立從零開始開發(fā)這些模型的必要性,而無需投資數(shù)十億美元和數(shù)年的努力。相反,用戶可以支付月度訂閱費用或?qū)⑵淅壍交A(chǔ)設(shè)施即服務(wù)(IaaS)的提供中。與此同時,用戶還可以訪問諸如安全性、隱私性和各種平臺工具等有價值的功能,所有這些都以一種簡化的方式進行管理。2.3.3生成式AI的層次3.模型層生成式AI的模型層啟動基礎(chǔ)模型。這種大規(guī)模機器學(xué)習(xí)模型通常通過使用Transformer算法對未標(biāo)記數(shù)據(jù)進行訓(xùn)練。訓(xùn)練和微調(diào)過程使基礎(chǔ)模型能夠發(fā)展成為一種多功能工具,可以適應(yīng)各種任務(wù),以支持各種生成式AI應(yīng)用程序的功能。2.3.3生成式AI的層次基礎(chǔ)模型可以大致分為兩大類:閉源(或?qū)S校┠P秃烷_源模型。(1)閉源基礎(chǔ)模型。這些模型由OpenAI等特定組織擁有和控制,底層源代碼、算法、訓(xùn)練數(shù)據(jù)和參數(shù)均保密。2.3.3生成式AI的層次閉源(或?qū)S校┗A(chǔ)模型可通過應(yīng)用程序編程接口(API)向公眾開放。第三方可以在其應(yīng)用程序中使用此API,查詢和呈現(xiàn)基礎(chǔ)模型中的信息,而無需在訓(xùn)練、微調(diào)或運行模型上花費額外的資源。這些模型通??梢栽L問專有的訓(xùn)練數(shù)據(jù),并可以優(yōu)先訪問云計算資源。大型云計算公司通常會創(chuàng)建閉源基礎(chǔ)模型,因為訓(xùn)練這些模型需要大量投資。閉源模型通過向客戶收取API使用或基于訂閱的訪問費用來產(chǎn)生收入。2.3.3生成式AI的層次OpenAI的GPT-4和谷歌的PaLM2等LLM是專注于自然語言處理的特定閉源基礎(chǔ)模型。它們針對聊天機器人等應(yīng)用程序進行了微調(diào),例如ChatGPT和Gemini。一個非語言的例子是OpenAI的DALL-E2,這是一種識別和生成圖像的視覺模型。2.3.3生成式AI的層次(2)開源基礎(chǔ)模型。相比之下,每個人都可以不受限制地訪問開源模型。他們鼓勵社區(qū)協(xié)作和開發(fā),允許透明地檢查和修改代碼。開源基礎(chǔ)模型是協(xié)作開發(fā)的。它們可以免費重新分發(fā)和修改,從而提供訓(xùn)練數(shù)據(jù)和模型構(gòu)建過程的完全透明度。許多甚至是免費分發(fā)的,具體取決于許可證和數(shù)據(jù)。2.3.3生成式AI的層次使用開源模型的好處包括:(1)對數(shù)據(jù)的完全控制和隱私;與OpenAI的GPT等閉源模型共享不同。(2)通過特定提示、微調(diào)和過濾改進定制,以針對各個行業(yè)進行優(yōu)化。(3)具有成本效益的特定領(lǐng)域模型的訓(xùn)練和推理(較小的模型需要較少的計算)。開源模型的例子例如Meta的Llama2、Databricks的Dolly2.0、StabilityAI的StableDiffusionXL以及Cerebras-GPT。2.3.3生成式AI的層次4.基礎(chǔ)設(shè)施層生成式AI的基礎(chǔ)設(shè)施層包含大規(guī)?;A(chǔ)模型的重要組成部分。這一過程涉及的關(guān)鍵資源是半導(dǎo)體、網(wǎng)絡(luò)、存儲、數(shù)據(jù)庫和云服務(wù),所有這些資源在生成式AI模型的初始訓(xùn)練和持續(xù)的微調(diào)、定制和推理中都發(fā)揮著至關(guān)重要的作用。生成式AI模型通過兩個主要階段發(fā)揮作用。2.3.3生成式AI的層次(1)訓(xùn)練階段:這是學(xué)習(xí)發(fā)生的階段,通常在云數(shù)據(jù)中心的加速計算集群中進行。在這個計算密集型階段,LLM從給定的數(shù)據(jù)集中學(xué)習(xí)。參數(shù)是模型調(diào)整以表示訓(xùn)練數(shù)據(jù)中潛在模式的內(nèi)部變量。詞元指的是模型處理的文本的個體部分,如單詞或子詞。例如,GPT-3是在3000億個詞元上進行訓(xùn)練的,其中一個詞元等于1.33個單詞,主要來自互聯(lián)網(wǎng)的CommonCrawl、網(wǎng)絡(luò)百科、書籍和文章。2.3.3生成式AI的層次(2)推斷階段:這是使用經(jīng)過訓(xùn)練的AI模型生成用戶響應(yīng)的過程。在這里,新的文本輸入被標(biāo)記為單獨的單位,模型使用訓(xùn)練過程中學(xué)到的參數(shù)來解釋這些詞元并生成相應(yīng)的輸出。這些經(jīng)過訓(xùn)練的AI模型需要大量的計算能力,并且必須部署在靠近最終用戶的地方(在邊緣數(shù)據(jù)中心),以最小化響應(yīng)時延(延遲),因為實時交互對于保持用戶參與至關(guān)重要。2.3.3生成式AI的層次總體而言,生成式AI的準(zhǔn)確性取決于LLM的規(guī)模和使用的訓(xùn)練數(shù)據(jù)量。這些因素反過來需要一個由半導(dǎo)體、網(wǎng)絡(luò)、存儲、數(shù)據(jù)庫和云服務(wù)組成的強大基礎(chǔ)設(shè)施。2.3.3生成式AI的層次定義:AIGC(AI-generatedcontent,人工智能生成內(nèi)容)是指利用AI技術(shù),特別是機器學(xué)習(xí)、深度學(xué)習(xí)等方法,自動生成各種形式的內(nèi)容,如文本、圖像、音頻、視頻等。這些內(nèi)容可以是創(chuàng)意性的,比如藝術(shù)作品、音樂、文章;也可以是實用性的,比如新聞報道、產(chǎn)品描述、個性化推薦信息等。AIGC的核心優(yōu)勢在于其能夠基于大量的數(shù)據(jù)學(xué)習(xí)模式,自動創(chuàng)作新的內(nèi)容,這在很大程度上提高了內(nèi)容生產(chǎn)的效率和個性化程度。2.3.4定義AIGCAIGC代表了AI在創(chuàng)意生產(chǎn)和內(nèi)容生成領(lǐng)域的應(yīng)用,能夠自動化或半自動化地生產(chǎn)高質(zhì)量、個性化的內(nèi)容。應(yīng)用AGIC的關(guān)鍵步驟一般包括:數(shù)據(jù)收集、模型訓(xùn)練、內(nèi)容生成和后期優(yōu)化。通過這些過程,AI系統(tǒng)能夠理解特定主題、風(fēng)格或用戶偏好,進而生成符合要求的內(nèi)容。2.3.4定義AIGCAIGC的應(yīng)用場景廣泛,從媒體和娛樂行業(yè)到教育、廣告、電商、個人助理等多個領(lǐng)域,都在探索如何利用這一技術(shù)來提升用戶體驗、創(chuàng)造新價值。隨著技術(shù)的不斷進步,AIGC的潛力持續(xù)增長,對社會經(jīng)濟活動和個人生活方式的影響也日益顯著。2.3.4定義AIGC?用戶生成內(nèi)容(UGC)是指由用戶自發(fā)創(chuàng)建并分享的各類內(nèi)容,如評論、博客文章、視頻、圖片等,通常通過社交媒體平臺、論壇和在線社區(qū)進行傳播。?專業(yè)生成內(nèi)容(PGC)是指由具有特定專業(yè)知識或技能的個人、團體或機構(gòu)創(chuàng)建的內(nèi)容,如新聞報道、學(xué)術(shù)論文、行業(yè)分析報告等,旨在提供高質(zhì)量、權(quán)威性和深度的信息。2.3.4定義AIGC從用戶生成內(nèi)容到專業(yè)生成內(nèi)容,再到現(xiàn)在的AIGC,我們看到了內(nèi)容創(chuàng)作方式的巨大變革和進步。通過深度學(xué)習(xí)與NLP的創(chuàng)新融合,AIGC就像一支神奇的畫筆,擁有無限的創(chuàng)造力。利用AI的理解力、想象力和創(chuàng)作力,根據(jù)指定的需求和風(fēng)格,創(chuàng)作出各種內(nèi)容。諸如ChatGPT、通義千問等智能系統(tǒng),AIGC的出現(xiàn)打開了一個全新的創(chuàng)作世界,為人們提供了無數(shù)的可能性,重塑了信息時代的內(nèi)容創(chuàng)作生態(tài),甚至讓人難以分清背后的創(chuàng)作者到底是人類還是AI。2.3.4定義AIGC與AIGC相關(guān)的AI領(lǐng)域術(shù)語之間的關(guān)系如圖2-2所示,它們共同構(gòu)成了AIGC的核心要素。圖2-2AIGC與AI技術(shù)譜系2.3.4定義AIGC生成式AI與AIGC這兩個概念緊密相關(guān),可以說AIGC是生成式AI的一個具體應(yīng)用方向。生成式AI的核心能力在于創(chuàng)造、預(yù)測、轉(zhuǎn)換和補全信息。而AIGC則更側(cè)重于描述由生成式AI技術(shù)所產(chǎn)出的實際成果,即由AI系統(tǒng)自動生成、具體創(chuàng)造出來的作品內(nèi)容本身,包括簡單的文本創(chuàng)作、圖像合成以及復(fù)雜的音樂生成、視頻剪輯等,這些作品展現(xiàn)了AI在創(chuàng)意表達方面的潛能。因此,生成式AI是底層的技術(shù)框架和方法,而AIGC是這些技術(shù)應(yīng)用的結(jié)果,體現(xiàn)了技術(shù)在實際場景中的應(yīng)用價值和社會影響。兩者之間存在一種從技術(shù)到產(chǎn)品的邏輯聯(lián)系,生成式AI的發(fā)展推動了AIGC的多樣化和普及化。2.3.5生成式AI與AIGC的關(guān)系PART04智能內(nèi)容生成隨著LLM技術(shù)的成熟,其應(yīng)用范圍擴展到了內(nèi)容生成的多個領(lǐng)域。2021年之前,AIGC生成的主要還是文字,而新一代模型可以處理的格式內(nèi)容包括文字、語音、代碼、圖像、視頻、機器人動作等等。AIGC可以在創(chuàng)意、表現(xiàn)力、迭代、傳播、個性化等方面,充分發(fā)揮技術(shù)優(yōu)勢。它不僅革新了創(chuàng)意產(chǎn)業(yè),還為個性化內(nèi)容推薦、輔助設(shè)計、娛樂等多個行業(yè)帶來了變革,例如DALL-E、Midjourney等圖像生成模型以及音樂生成軟件AmperMusic等。2.4智能內(nèi)容生成智能數(shù)字內(nèi)容孿生主要分為內(nèi)容增強與轉(zhuǎn)譯。增強,即對數(shù)字內(nèi)容修復(fù)、去噪、細(xì)節(jié)增強等,轉(zhuǎn)譯,即對數(shù)字內(nèi)容轉(zhuǎn)換如翻譯等。該技術(shù)旨在將現(xiàn)實世界中的內(nèi)容進行智能增強與智能轉(zhuǎn)譯,更好的完成現(xiàn)實世界到數(shù)字世界映射。例如,我們拍攝了一張低分辨率的圖片,通過智能增強中的圖像超分可對低分辨率進行放大,同時增強圖像的細(xì)節(jié)信息,生成高清圖。2.4.1內(nèi)容孿生這里的超分,即超分辨率技術(shù),是通過硬件或軟件的方法提高圖像或視頻幀的分辨率,通過一系列低分辨率圖像獲取到高分辨率圖像的過程。再比如,對于老照片中的像素缺失部分,可通過智能增強技術(shù)進行內(nèi)容復(fù)原。而智能轉(zhuǎn)譯則更關(guān)注不同模態(tài)之間的相互轉(zhuǎn)換。比如,錄制一段音頻,可通過智能轉(zhuǎn)譯技術(shù)自動生成字幕;再比如,輸入一段文字可以自動生成語音,兩個例子均為模態(tài)間智能轉(zhuǎn)譯應(yīng)用。2.4.1內(nèi)容孿生內(nèi)容孿生的應(yīng)用主要有語音轉(zhuǎn)字幕、文字轉(zhuǎn)語音、圖像超分等。其中,圖像超分辨率是指利用光學(xué)及其相關(guān)光學(xué)知識,根據(jù)已知圖像信息恢復(fù)圖像細(xì)節(jié)和其他數(shù)據(jù)信息的過程,簡單來說就是增大圖像的分辨率,防止其圖像質(zhì)量下降。2.4.1內(nèi)容孿生智能數(shù)字內(nèi)容編輯是通過對內(nèi)容的理解以及屬性控制,進而實現(xiàn)對內(nèi)容的修改。如在計算機視覺領(lǐng)域,通過對視頻內(nèi)容的理解實現(xiàn)不同場景視頻片段的剪輯。通過人體部位檢測以及目標(biāo)衣服的變形控制與截斷處理,將目標(biāo)衣服覆蓋至人體部位,實現(xiàn)虛擬試衣。在語音信號處理領(lǐng)域,通過對音頻信號分析,實現(xiàn)人聲與背景聲分離。以上例子都是在理解數(shù)字內(nèi)容的基礎(chǔ)上對內(nèi)容的編輯與控制。2.4.2內(nèi)容編輯智能數(shù)字內(nèi)容生成是通過從海量數(shù)據(jù)中學(xué)習(xí)抽象概念,并通過概念的組合生成全新的內(nèi)容。如AI繪畫,從海量繪畫中學(xué)習(xí)作品不同筆法、內(nèi)容、藝術(shù)風(fēng)格,并基于學(xué)習(xí)內(nèi)容重新生成特定風(fēng)格的繪畫。采用此方式,AI在文本創(chuàng)作、音樂創(chuàng)作和詩詞創(chuàng)作中取得了不錯的表現(xiàn)。再比如,在跨模態(tài)領(lǐng)域,通過輸入文本輸出特定風(fēng)格與屬性的圖像,不僅能夠描述圖像中主體的數(shù)量、形狀、顏色等屬性信息,而且能夠描述主體的行為、動作以及主體之間的關(guān)系。2.4.2內(nèi)容編輯隨著AI技術(shù)的迅猛發(fā)展,我們見證了其從基礎(chǔ)算法到復(fù)雜應(yīng)用場景的跨越式進步。從簡單的數(shù)據(jù)分析到復(fù)雜的決策支持,AI似乎無所不能。然而,在這波技術(shù)革新浪潮中,AI所面臨的真正挑戰(zhàn)正逐漸從形式化學(xué)習(xí)轉(zhuǎn)向內(nèi)容理解。2.4.3內(nèi)容理解當(dāng)前,大多數(shù)AI系統(tǒng),特別是深度學(xué)習(xí)模型,主要依賴于對海量數(shù)據(jù)的形式化學(xué)習(xí)。這些模型通過識別數(shù)據(jù)中的模式和關(guān)聯(lián)來做出預(yù)測或決策。然而,這種學(xué)習(xí)方式的局限性在于,它們往往缺乏對數(shù)據(jù)背后含義的深入理解和洞察。以圖像和視頻內(nèi)容的理解為例,盡管計算機視覺技術(shù)利用深度學(xué)習(xí)模型能夠識別出物體、場景和動作等,但一個圖像識別系統(tǒng)即使能夠準(zhǔn)確地識別出一只水豚,它卻并不真正理解“水豚”這一概念所包含的深層含義,如水豚的生活方式、性格特點等。2.4.3內(nèi)容理解對于大數(shù)據(jù)和深度學(xué)習(xí)的局限性,有研究者認(rèn)為:“這些都是基于形式化的處理,數(shù)據(jù)被簡化為0—1的編碼序列,無法真實反映其背后的內(nèi)容。深度學(xué)習(xí)模型基于這樣的數(shù)據(jù)進行訓(xùn)練,同樣缺乏對內(nèi)容的深入理解,因此不具備真正的理解能力?!边@一觀點揭示了當(dāng)前AI領(lǐng)域所面臨的挑戰(zhàn)——如何推動AI系統(tǒng)實現(xiàn)對數(shù)據(jù)深層含義的真正理解。2.4.3內(nèi)容理解換言之,深度學(xué)習(xí)所學(xué)習(xí)到的僅僅是形式上的關(guān)聯(lián)和模式,而沒有涉及內(nèi)容上的因果關(guān)系。對于AI而言,真正的“智能”不僅要求能夠處理形式,更重要的是要能夠理解數(shù)據(jù)、信息和知識背后的深層內(nèi)容。只有這樣,AI才能做出具有智能水平的決策。2.4.3內(nèi)容理解這意味著,AI系統(tǒng)需要具備一種類似于人類的認(rèn)知能力,這種能力不僅體現(xiàn)在對數(shù)據(jù)的整理、歸納和有效信息的提取上,更重要的是能夠?qū)⑦@些信息與相應(yīng)領(lǐng)域的知識庫進行深度融合,從而實現(xiàn)對數(shù)據(jù)的真正理解。例如在自動駕駛領(lǐng)域,AI系統(tǒng)需要具備對來自攝像頭、激光雷達等多個傳感器數(shù)據(jù)的實時處理能力,但僅僅識別出車輛、行人和其他障礙物還遠(yuǎn)遠(yuǎn)不夠,系統(tǒng)需要能夠理解這些物體之間的關(guān)系,預(yù)測它們的行為。同時,系統(tǒng)還需要融合對道路規(guī)則、交通信號和車輛動力學(xué)等知識的深入理解,才能在復(fù)雜的交通場景中做出安全合理的決策。2.4.3內(nèi)容理解為實現(xiàn)從形式化學(xué)習(xí)到內(nèi)容理解的轉(zhuǎn)變,有研究者主張對AI領(lǐng)域研究實行“范式大變革”,認(rèn)為學(xué)科的范式(科學(xué)觀與方法論)是指導(dǎo)學(xué)科研究的最高引領(lǐng)力量。然而作為信息學(xué)科高級篇章的AI卻遵循著物質(zhì)學(xué)科的范式,使其研究嚴(yán)重受限。用“物質(zhì)學(xué)科的范式”來指導(dǎo)“信息學(xué)科的研究”,AI的研究只能按照“分而治之”和“純粹形式化”的方法論得出各種局部性、孤立性、碎片式、智能水平低下、結(jié)果不可解釋,而且需要大規(guī)模樣本的研究成果。2.4.3內(nèi)容理解PART05生成式AI應(yīng)用場景AIGC技術(shù)具有強大的創(chuàng)造性和自動化能力,其應(yīng)用場景廣泛且多樣,覆蓋了多個行業(yè)和領(lǐng)域,它的產(chǎn)業(yè)生態(tài)體系的三層架構(gòu)如圖2-3所示,它的典型應(yīng)用場景大致可以分為文本生成、圖像生成、音頻生成、視頻生成、多模態(tài)生成等5個方面。2.5生成式AI應(yīng)用場景圖2-3AIGC產(chǎn)業(yè)生態(tài)體系的三層架構(gòu)2.5生成式AI應(yīng)用場景其典型應(yīng)用場景如下。(1)文字生成:根據(jù)使用場景,基于NLP的文本內(nèi)容生成可分為非交互式與交互式文本生成。
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年及未來5年市場數(shù)據(jù)中國咖啡廳行業(yè)市場深度分析及發(fā)展趨勢預(yù)測報告
- 診所急重癥搶救制度
- 設(shè)備維修保養(yǎng)制度管理制度
- 解毒王二明獎金制度
- 2025年水利廳所屬事業(yè)單位考試及答案
- 2025年java??凸P試題庫及答案
- 2025年鄆城縣人事考試及答案
- 2026年及未來5年市場數(shù)據(jù)中國糧食物流行業(yè)市場調(diào)查研究及投資前景展望報告
- 2026年及未來5年市場數(shù)據(jù)中國城市環(huán)衛(wèi)市場競爭策略及行業(yè)投資潛力預(yù)測報告
- 2025年悉尼駕考筆試題答案
- 2025年蘇鹽井神集團筆試題及答案
- 2026中國電信四川公用信息產(chǎn)業(yè)有限責(zé)任公司社會成熟人才招聘備考題庫及答案詳解(考點梳理)
- 2025年專利管理與保護操作手冊
- 2025云南山海遊旅游集團有限公司招聘10人考試備考題庫及答案解析
- 2025年人工智能(AI)訓(xùn)練師專業(yè)知識考試題庫(完整版)
- 【全文翻譯】歐盟-GMP-附錄1《無菌藥品生產(chǎn)》智新版
- 浙江省嘉興市2024-2025學(xué)年七年級上學(xué)期期末考試數(shù)學(xué)試卷(含答案)
- 2025年公務(wù)員(省考)測試卷附答案詳解
- 2025年醫(yī)療統(tǒng)計師崗位招聘面試參考題庫及參考答案
- 2025年湖南邵陽經(jīng)開貿(mào)易投資有限公司招聘12人筆試考試參考試題及答案解析
- 白內(nèi)障手術(shù)術(shù)前準(zhǔn)備和術(shù)后護理流程
評論
0/150
提交評論