版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
人工智能基礎(chǔ)通識(shí)教程(第6章大模型及其應(yīng)用技術(shù))配套電子工業(yè)出版社《人工智能基礎(chǔ)通識(shí)教程》教材本章目錄6.1大模型的概念與發(fā)展歷程6.2典型大模型系統(tǒng)6.3大模型的應(yīng)用技術(shù)6.4大模型的典型應(yīng)用桂小林2計(jì)算+人工智能6.1大模型的概念與發(fā)展歷程本節(jié)講解大模型技術(shù)的基本概念、特征與發(fā)展歷程6.1.1大模型技術(shù)的概念與特征大模型技術(shù),或稱AI大模型技術(shù),指的是使用大規(guī)模數(shù)據(jù)和強(qiáng)大的計(jì)算能力訓(xùn)練出來(lái)的具有“大參數(shù)”的機(jī)器學(xué)習(xí)模型。這些模型通常具有高度的通用性和泛化能力,可以應(yīng)用于自然語(yǔ)言處理、圖像識(shí)別、語(yǔ)音識(shí)別等領(lǐng)域。在人工智能領(lǐng)域中,大模型是一個(gè)重要的概念,它指的是具有龐大參數(shù)規(guī)模和復(fù)雜計(jì)算結(jié)構(gòu)的機(jī)器學(xué)習(xí)模型。桂小林36.1.1大模型技術(shù)的概念與特征大模型的主要特征可以歸納如下:龐大的參數(shù)規(guī)模:大模型的核心特征之一是其海量的參數(shù)數(shù)量,通常在數(shù)十億到數(shù)千億之間,也有說(shuō)法認(rèn)為大模型是指具有數(shù)千萬(wàn)甚至數(shù)億參數(shù)的深度學(xué)習(xí)模型。復(fù)雜的計(jì)算結(jié)構(gòu):大模型通常具有復(fù)雜的網(wǎng)絡(luò)架構(gòu),通過(guò)多層的網(wǎng)絡(luò)結(jié)構(gòu),在不同層次上提取特征,實(shí)現(xiàn)從簡(jiǎn)單到復(fù)雜的特征表示。這種深度架構(gòu)使得大模型能夠處理更加復(fù)雜的數(shù)據(jù)和任務(wù)。多任務(wù)學(xué)習(xí)能力:大模型能夠同時(shí)學(xué)習(xí)并執(zhí)行多個(gè)任務(wù),這得益于其強(qiáng)大的特征表示能力。多任務(wù)學(xué)習(xí)不僅提高了模型的泛化能力,還使得模型能夠更靈活地適應(yīng)不同的應(yīng)用場(chǎng)景。預(yù)訓(xùn)練與微調(diào):大模型通常采用預(yù)訓(xùn)練和微調(diào)的訓(xùn)練策略。對(duì)大數(shù)據(jù)的依賴性:大模型的訓(xùn)練和運(yùn)行高度依賴于數(shù)據(jù)。無(wú)論是監(jiān)督學(xué)習(xí)中的標(biāo)注數(shù)據(jù),還是無(wú)監(jiān)督學(xué)習(xí)中的非標(biāo)注數(shù)據(jù),大量的數(shù)據(jù)輸入是訓(xùn)練大模型不可或缺的一部分。計(jì)算資源需求高:由于大模型參數(shù)眾多、計(jì)算復(fù)雜,其訓(xùn)練和運(yùn)行需要大量的計(jì)算資源和內(nèi)存空間。這通常涉及到高性能的GPU或TPU等硬件支持,以及并行計(jì)算和分布式訓(xùn)練技術(shù)的應(yīng)用。桂小林46.1.2大模型的發(fā)展歷程大模型技術(shù)的發(fā)展歷程經(jīng)歷了多個(gè)階段,以下是其主要的發(fā)展歷程:1、萌芽期(1950年~2005年)以CNN為代表的傳統(tǒng)神經(jīng)網(wǎng)絡(luò)模型階段。1980年,卷積神經(jīng)網(wǎng)絡(luò)的雛形CNN誕生;1998年,現(xiàn)代卷積神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)LeNet-5誕生,為自然語(yǔ)言生成、計(jì)算機(jī)視覺(jué)等的深入研究奠定了基礎(chǔ)。2、沉淀期(2006年~2019年)以Transformer為代表的全新神經(jīng)網(wǎng)絡(luò)模型階段。2013年,自然語(yǔ)言處理模型word2vec誕生。2017年,Google提出Transformer架構(gòu),奠定了大模型預(yù)訓(xùn)練算法架構(gòu)的基礎(chǔ)。2018年,OpenAI和Google分別發(fā)布了GPT-1與BERT大模型,預(yù)訓(xùn)練大模型成為自然語(yǔ)言處理領(lǐng)域的主流。3、爆發(fā)期(2020年~2023年)以GPT為代表的預(yù)訓(xùn)練大模型階段。2020年,OpenAI公司推出了GPT-3。2022年11月,GPT3.5。2023年3月,GPT4發(fā)布,具備了多模態(tài)理解與多類型內(nèi)容生成能力。國(guó)產(chǎn)化大模型開(kāi)始出現(xiàn)。4、加速落地期(2024年至今)AI大模型應(yīng)用不斷加速落地,國(guó)產(chǎn)化模型涌現(xiàn),在各個(gè)領(lǐng)域的應(yīng)用場(chǎng)景不斷拓展。桂小林56.2典型大模型系統(tǒng)6.2.1自然語(yǔ)言處理大模型自然語(yǔ)言處理(NLP)大模型是指通過(guò)大規(guī)模預(yù)訓(xùn)練和自監(jiān)督學(xué)習(xí)技術(shù)構(gòu)建的深度學(xué)習(xí)模型,旨在提高計(jì)算機(jī)對(duì)自然語(yǔ)言的理解和生成能力。根據(jù)自然語(yǔ)言處理大模型發(fā)展過(guò)程,典型的NLP模型包括word2vec、Transformer、BERT和國(guó)產(chǎn)化大模型等。Google公司在2013年開(kāi)放了一款用于訓(xùn)練詞向量的軟件工具:Word2Vec。Transformer是一種在自然語(yǔ)言處理(NLP)領(lǐng)域具有革命性意義的深度學(xué)習(xí)模型架構(gòu)。它最初由Vaswani等人在2017年的論文《AttentionIsAllYouNeed》中提出,作為對(duì)傳統(tǒng)序列處理模型(如循環(huán)神經(jīng)網(wǎng)絡(luò)RNN及其變體LSTM、GRU)局限性的突破。Transformer的核心在于其完全基于注意力機(jī)制(AttentionMechanism)構(gòu)建,摒棄了傳統(tǒng)的循環(huán)和卷積結(jié)構(gòu)。它利用自注意力機(jī)制(Self-Attention)來(lái)對(duì)輸入序列中的各個(gè)元素之間的關(guān)系進(jìn)行建模,允許每個(gè)元素與序列中所有其他元素進(jìn)行交互,以捕獲全局信息。這使得模型能夠有效地處理長(zhǎng)程依賴,并通過(guò)并行計(jì)算加速訓(xùn)練。桂小林66.2.1自然語(yǔ)言處理大模型Transformer架構(gòu)主要由編碼器(Encoder)和解碼器(Decoder)組成,如圖6-1所示,每個(gè)部分都由多個(gè)相同的層堆疊而成。這些層包括自注意力層、前饋神經(jīng)網(wǎng)絡(luò)層(FeedForwardNeuralNetwork)、殘差連接(ResidualConnections)和層歸一化(LayerNormalization)。桂小林76.2.1自然語(yǔ)言處理大模型BERT(BidirectionalEncoderRepresentationsfromTransformers)即“雙向編碼器表征法”或簡(jiǎn)單地稱為“雙向變換器模型”,是一種基于Transformer架構(gòu)的預(yù)訓(xùn)練語(yǔ)言模型。它由Google在2018年推出,代碼已開(kāi)源。BERT在自然語(yǔ)言處理(NLP)領(lǐng)域具有廣泛的應(yīng)用和出色的性能,為多種語(yǔ)言理解任務(wù)提供了強(qiáng)大的預(yù)訓(xùn)練模型基礎(chǔ)。BERT采用了雙向Transformer編碼器結(jié)構(gòu),這意味著在預(yù)訓(xùn)練階段,模型能夠同時(shí)利用輸入序列的左側(cè)和右側(cè)上下文信息,從而更準(zhǔn)確地理解語(yǔ)言的含義。這種雙向編碼方式使得BERT在處理文本時(shí)具有更強(qiáng)的語(yǔ)義理解能力和更豐富的信息來(lái)源。桂小林86.2.1自然語(yǔ)言處理大模型GPT相比于Transformer等模型進(jìn)行了顯著簡(jiǎn)化。相比于Transformer,GPT訓(xùn)練了一個(gè)12層僅decoder的解碼器,原Transformer模型中包含編碼器和解碼器兩部分(編碼器和解碼器作用在于對(duì)輸入和輸出的內(nèi)容進(jìn)行操作,成為模型能夠認(rèn)識(shí)的語(yǔ)言或格式)。同時(shí),相比于Google的BERT,GPT僅采用上文預(yù)測(cè)單詞,而B(niǎo)ERT采用了基于上下文雙向的預(yù)測(cè)手段。GPT-4是OpenAI在深度學(xué)習(xí)擴(kuò)展方面的最新里程碑。根據(jù)微軟發(fā)布的GPT-4論文,GPT-4已經(jīng)可被視為一個(gè)通用人工智能的早期版本。桂小林96.2.2計(jì)算機(jī)視覺(jué)大模型計(jì)算機(jī)視覺(jué)大模型是指應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域的大規(guī)模、高復(fù)雜度的神經(jīng)網(wǎng)絡(luò)模型。計(jì)算機(jī)視覺(jué)大模型是通過(guò)深度學(xué)習(xí)算法和大量的數(shù)據(jù)訓(xùn)練構(gòu)建的神經(jīng)網(wǎng)絡(luò)模型。這類模型具備強(qiáng)大的特征提取和識(shí)別能力,能夠?qū)崿F(xiàn)對(duì)圖像、視頻等視覺(jué)信息的深層次理解和分析。計(jì)算機(jī)視覺(jué)大模型的核心原理基于深度學(xué)習(xí)算法和神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì)。通過(guò)訓(xùn)練,模型能夠從海量的圖像和視頻數(shù)據(jù)中自動(dòng)提取有用的特征,進(jìn)而進(jìn)行分類、檢測(cè)、識(shí)別等視覺(jué)任務(wù)。這些模型通常基于Transformer架構(gòu),由自注意力機(jī)制和位置編碼兩部分組成,能夠捕捉圖像中的全局和局部信息,從而在各種計(jì)算機(jī)視覺(jué)任務(wù)中取得優(yōu)異的表現(xiàn)。桂小林106.2.2計(jì)算機(jī)視覺(jué)大模型1、Inception網(wǎng)絡(luò)Inception是一個(gè)在深度學(xué)習(xí)領(lǐng)域,特別是在計(jì)算機(jī)視覺(jué)任務(wù)中廣泛使用的概念。廣義上,Inception可以被理解為“起始”、“開(kāi)端”或“創(chuàng)意的誕生”。然而,在科技領(lǐng)域,尤其是人工智能(AI)和機(jī)器學(xué)習(xí)(ML)的語(yǔ)境中,Inception有著更為特定的含義。它通常指的是一種具有創(chuàng)新性的神經(jīng)網(wǎng)絡(luò)架構(gòu),這種架構(gòu)能夠通過(guò)并行處理多個(gè)不同大小的卷積核來(lái)提取圖像中的特征。這種架構(gòu)的出現(xiàn),極大地提高了圖像識(shí)別的準(zhǔn)確率和效率,為人工智能的發(fā)展注入了新的活力。Inception網(wǎng)絡(luò)最初在2014年由Google團(tuán)隊(duì)提出,并在ImageNet圖像分類挑戰(zhàn)賽上取得了顯著成果。隨著技術(shù)的不斷發(fā)展,Inception網(wǎng)絡(luò)經(jīng)歷了多個(gè)版本的迭代。這些版本在原始Inception網(wǎng)絡(luò)的基礎(chǔ)上進(jìn)行了改進(jìn),提升了性能和效果。桂小林116.2.2計(jì)算機(jī)視覺(jué)大模型Inception模塊是Inception架構(gòu)的核心組件,它由多個(gè)并行的分支組成,如圖6-2所示。每個(gè)分支都使用不同大小的卷積核進(jìn)行卷積操作,例如1×1、3×3和5×5的卷積核。這樣做的目的是讓網(wǎng)絡(luò)能夠同時(shí)學(xué)習(xí)到局部和全局的特征,并且能夠適應(yīng)不同尺度的目標(biāo)。桂小林126.2.2計(jì)算機(jī)視覺(jué)大模型2、DenseNet網(wǎng)絡(luò)密集連接卷積神經(jīng)網(wǎng)絡(luò)DenseNet(DenselyConnectedConvolutionalNetworks)是一種深度卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由GaoHuang等人于2017年提出。DenseNet的基本思路與ResNet(殘差網(wǎng)絡(luò))相似,但DenseNet通過(guò)建立前面所有層與后面層的密集連接來(lái)實(shí)現(xiàn)更高效的特征傳遞和重用。這種設(shè)計(jì)使得DenseNet能夠更有效地利用計(jì)算資源,并且更好地保留和傳遞特征信息。DenseNet主要?jiǎng)?chuàng)新是在網(wǎng)絡(luò)的每一層之間建立直接連接,從而保證最大化層與層之間的信息傳遞。具體而言,DenseNet中的每一層與所有前面的層直接相連,并從它們那里獲得額外的輸入。為了保持正向傳遞的性質(zhì),每層還將自己的特征圖傳遞給所有后續(xù)的層。這種密集的連接模式可以有效地促進(jìn)信息和梯度的流動(dòng),避免信息在深層網(wǎng)絡(luò)中丟失。桂小林136.2.2計(jì)算機(jī)視覺(jué)大模型3、VisionTransformer網(wǎng)絡(luò)VisionTransformer(ViT)網(wǎng)絡(luò)是一種基于自注意力機(jī)制的神經(jīng)網(wǎng)絡(luò)架構(gòu),主要用于處理圖像數(shù)據(jù)。VisionTransformer網(wǎng)絡(luò)是由谷歌研究人員在2020年提出的,標(biāo)志著將自然語(yǔ)言處理(NLP)中廣泛使用的Transformer模型成功應(yīng)用于計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)重要進(jìn)展。在計(jì)算機(jī)視覺(jué)領(lǐng)域中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)因其強(qiáng)大的局部特征提取能力而長(zhǎng)期占據(jù)主導(dǎo)地位。然而,近年來(lái),VisionTransformer作為一種新興的模型架構(gòu),已經(jīng)開(kāi)始在多個(gè)視覺(jué)任務(wù)中展現(xiàn)出與CNN相當(dāng)甚至更好的性能。VisionTransformer的核心思想是將圖像分解為一系列的小塊(稱為patches),這些小塊在輸入網(wǎng)絡(luò)之前被展平并映射到高維空間。這與傳統(tǒng)的卷積神經(jīng)網(wǎng)絡(luò)(CNN)不同,后者通常會(huì)使用卷積層來(lái)處理整個(gè)圖像并提取局部特征。桂小林146.2.2計(jì)算機(jī)視覺(jué)大模型4、YOLOv8網(wǎng)絡(luò)百度的YOLOv8是YOLO(YouOnlyLookOnce)系列實(shí)時(shí)物體檢測(cè)器的最新迭代產(chǎn)品,它在精度和速度方面都具有更高性能。YOLOv8采用了最先進(jìn)的骨干和頸部架構(gòu),提高了特征提取和物體檢測(cè)性能。骨干網(wǎng)絡(luò)可能參考了YOLOv7的ELAN設(shè)計(jì)思想,并將YOLOv5的C3結(jié)構(gòu)換成了梯度流更豐富的C2f結(jié)構(gòu),同時(shí)對(duì)不同尺度模型調(diào)整了不同的通道數(shù)。YOLOv8采用了無(wú)錨分體式Ultralytics頭,與基于錨的方法相比,有助于提高檢測(cè)過(guò)程的準(zhǔn)確性和效率。Head部分從YOLOv5的Anchor-Based換成了Anchor-Free,并換成了目前主流的解耦頭結(jié)構(gòu)(Decoupled-Head),將分類和檢測(cè)頭分離。YOLOv8專注于保持精度與速度之間的最佳平衡,適用于各種應(yīng)用領(lǐng)域的實(shí)時(shí)目標(biāo)檢測(cè)任務(wù)。YOLOv8還提供一系列預(yù)訓(xùn)練模型,以滿足各種任務(wù)和性能要求。這些模型還兼容各種操作模式,包括推理、驗(yàn)證、訓(xùn)練和輸出,便于在部署和開(kāi)發(fā)的不同階段使用。桂小林156.2.3國(guó)產(chǎn)大模型應(yīng)用系統(tǒng)1、百度文心一言百度文心一言(/)具備自然語(yǔ)言理解與智能問(wèn)答、文本生成與創(chuàng)作輔助、多語(yǔ)言支持與翻譯功能。2、阿里巴巴通義千問(wèn)阿里巴巴通義千問(wèn)是由阿里云推出的一個(gè)超大規(guī)模的語(yǔ)言模型,它于2023年9月13日正式向公眾開(kāi)放。通義千問(wèn)利用自然語(yǔ)言處理技術(shù),為用戶提供智能化的語(yǔ)音交互服務(wù)。通義千問(wèn)能夠回答用戶的各種問(wèn)題,并進(jìn)行深入的分析和推薦,幫助用戶解決各種生活和工作中遇到的疑問(wèn)和難題。3、騰訊混元騰訊混元大模型是由騰訊公司研的發(fā)大語(yǔ)言模型,于2023年9月6日上線,采用混合專家模型(MoE)架構(gòu),參數(shù)規(guī)模達(dá)萬(wàn)億。該模型依托騰訊云以API接口形式向企業(yè)用戶提供的交互文本對(duì)話內(nèi)容生成的技術(shù)服務(wù),一般需要付費(fèi)使用。桂小林166.2.3國(guó)產(chǎn)大模型應(yīng)用系統(tǒng)4、華為盤(pán)古華為盤(pán)古是由華為云、循環(huán)智能和鵬城實(shí)驗(yàn)室聯(lián)合開(kāi)發(fā)的人工智能大模型。該模型于2021年4月首次發(fā)布,后續(xù)有多個(gè)版本更新,如盤(pán)古大模型5.0于2024年6月21日發(fā)布。盤(pán)古包含L0中5類基礎(chǔ)大模型、L1行業(yè)大模型及L2場(chǎng)景模型三層架構(gòu),采用聯(lián)邦LLM架構(gòu),支持端到端安全合規(guī)體系。5、科大訊飛星火認(rèn)知科大訊飛星火認(rèn)知大模型是科大訊飛推出的一款認(rèn)知智能大模型,于2023年5月6日發(fā)布,并不斷迭代。該模型基于訊飛最新的認(rèn)知智能大模型技術(shù),使用深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)(CNN)、循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短時(shí)記憶網(wǎng)絡(luò)(LSTM)等技術(shù),以及自然語(yǔ)言處理中的詞向量表示、序列到序列模型(Seq2Seq)、注意力機(jī)制等。這些技術(shù)的運(yùn)用使得訊飛星火認(rèn)知大模型能夠?qū)斎氲淖匀徽Z(yǔ)言進(jìn)行語(yǔ)義分析和理解,從而實(shí)現(xiàn)問(wèn)答、推理、推薦等多種功能。6、商湯科技日日新“日日新”是商湯科技推出的一款多模態(tài)融合大模型。于2023年4月發(fā)布1.0版本,到2024年7月迭代到5.5版本?!叭杖招隆贝竽P蛯?shí)現(xiàn)了原生融合模態(tài),深度推理能力和多模態(tài)信息處理能力均得到顯著提升。這一特點(diǎn)使得模型能夠同時(shí)處理多種模態(tài)的信息,特別適用于自動(dòng)駕駛、金融、辦公教育等領(lǐng)域。桂小林176.2.3國(guó)產(chǎn)大模型應(yīng)用系統(tǒng)7、智譜AI智譜AI(北京智譜華章科技有限公司)成立于2019年6月,源自清華大學(xué)計(jì)算機(jī)系的知識(shí)工程(KEG)實(shí)驗(yàn)室,擁有逾27年的人工智能技術(shù)積累。智譜AI的愿景是“未來(lái)讓機(jī)器像人一樣思考”,致力于開(kāi)發(fā)新一代認(rèn)知智能大模型。8、字節(jié)跳動(dòng)豆包字節(jié)跳動(dòng)豆包是字節(jié)跳動(dòng)公司推出的一款A(yù)I工具,于2024年5月15日發(fā)布。2024年11月7日,豆包正式推出視頻生成內(nèi)測(cè)。2024年12月3日,豆包上線圖片理解功能。2025年1月20日,豆包實(shí)時(shí)語(yǔ)音大模型正式推出,并在豆包APP全量開(kāi)放。2025年1月22日,豆包大模型1.5正式發(fā)布。9、360智腦360智腦大模型是由360公司研發(fā)的認(rèn)知型通用大模型,具備跨模態(tài)生成的能力,可以處理文字、圖像、語(yǔ)音、視頻等多種形式的數(shù)據(jù);集成了360GPT大模型、360CV大模型、360多模態(tài)大模型技術(shù)能力,具備生成創(chuàng)作、多輪對(duì)話、邏輯推理等十大核心能力,以及數(shù)百項(xiàng)細(xì)分功能。桂小林186.2.3國(guó)產(chǎn)大模型應(yīng)用系統(tǒng)10、深度求索DeepSeek深度求索(DeepSeek)是中國(guó)的一家人工智能企業(yè),其推出的推理模型R1在2025年初在科技領(lǐng)域引起了廣泛關(guān)注。DeepSeek推出的推理模型R1性能卓越,與國(guó)際領(lǐng)先的OpenAI模型可以平分秋色,更以低成本完成模型訓(xùn)練,顯示了DeepSeek在成本控制和技術(shù)效率方面的能力。DeepSeek的開(kāi)源策略也有助于縮小不同地區(qū)、階層之間的知識(shí)鴻溝,讓更多人受益于AI技術(shù)的發(fā)展,為AI應(yīng)用的普及提供了有力支持。11、Kimi大模型是由月之暗面公司研發(fā)的千億參數(shù)級(jí)對(duì)話式AI助手4,其核心基于自研的Moonshot大模型,具備以下特性:支持200萬(wàn)字無(wú)損長(zhǎng)文本輸入,采用創(chuàng)新的無(wú)損長(zhǎng)程注意力機(jī)制,無(wú)需降采樣即可保持上下文連貫性46;可一次性解析500個(gè)網(wǎng)頁(yè)內(nèi)容或整本專業(yè)書(shū)籍,適用于復(fù)雜任務(wù)處理15。支持文本、語(yǔ)音、視覺(jué)等多模態(tài)信息對(duì)齊與交互;結(jié)合外部知識(shí)庫(kù)增強(qiáng)推理能力,可快速學(xué)習(xí)新領(lǐng)域知識(shí),涵蓋長(zhǎng)文檔總結(jié)、專業(yè)領(lǐng)域咨詢、代碼解析、跨模態(tài)數(shù)據(jù)分析等場(chǎng)景;12、等等桂小林196.3大模型的應(yīng)用技術(shù)從技術(shù)的角度分析,大模型的應(yīng)用技術(shù)主要包括文生文、文生圖、圖生圖等。下面介紹其中的文生文和文生圖技術(shù)。6.3.1文生文文生文(TexttoText)是指利用自然語(yǔ)言處理技術(shù),通過(guò)計(jì)算機(jī)程序自動(dòng)生成具有語(yǔ)義連貫性和邏輯合理性的文本內(nèi)容。文生文技術(shù)主要關(guān)注的是將一段文本轉(zhuǎn)換為另一段文本,這包括機(jī)器翻譯、文本摘要、風(fēng)格轉(zhuǎn)換等應(yīng)用場(chǎng)景。它基于大量的語(yǔ)料庫(kù)和先進(jìn)的算法模型,通過(guò)學(xué)習(xí)和分析語(yǔ)言規(guī)則和結(jié)構(gòu),從而能夠生成高質(zhì)量的文本內(nèi)容。文生文的原理主要依賴于自然語(yǔ)言處理技術(shù)和機(jī)器學(xué)習(xí)算法。具體來(lái)說(shuō),它通常使用序列到序列(Seq2Seq)模型或變換器(Transformer)模型來(lái)訓(xùn)練語(yǔ)言模型。這些模型能夠接收輸入的文本序列,并生成與之對(duì)應(yīng)的輸出文本序列。桂小林206.3.1文生文在百度文心一言中,有著豐富的創(chuàng)意寫(xiě)作功能,如圖左所示,包括文章改寫(xiě)、擴(kuò)寫(xiě)、仿寫(xiě)、潤(rùn)色、縮寫(xiě)、續(xù)寫(xiě)等功能。下面是使用文心一言生成2道簡(jiǎn)單試題的例子。如圖右所示。桂小林216.3.2文生圖文生圖,即文本到圖像(Text-to-Image)的生成技術(shù)。上世紀(jì)90年代至2010年代初,研究者開(kāi)始探索如何利用計(jì)算機(jī)生成圖像,但由于技術(shù)限制,生成的圖像質(zhì)量往往不盡如人意。2010年代初期,研究者開(kāi)始嘗試使用CNN進(jìn)行圖像分類和識(shí)別,這為后來(lái)的文生圖技術(shù)打下了基礎(chǔ)。2014年,GAN的出現(xiàn)使得文生圖技術(shù)取得了突破性的進(jìn)展。GAN通過(guò)引入生成器和判別器的概念,使得模型能夠自動(dòng)學(xué)習(xí)從文本描述到圖像的映射關(guān)系,從而生成更加真實(shí)、細(xì)膩的圖像。桂小林226.3.2文生圖在百度文心一言中,有著豐富的智慧繪圖功能,如圖6-23所示,包括文案配圖、LOGO設(shè)計(jì)、活動(dòng)海報(bào)、壁紙、手抄報(bào)等功能。桂小林236.3.2文生圖文生圖技術(shù)的工作原理主要基于深度學(xué)習(xí)技術(shù),特別是生成對(duì)抗網(wǎng)絡(luò)(GAN)和變分自編碼器(VAE)等模型的應(yīng)用。下面是根據(jù)古詩(shī)制作一幅圖片的例子,如圖6-25。請(qǐng)根據(jù)下面古詩(shī)制作一幅圖片:白日依山盡,黃河入海流,欲窮千里目,更上一層樓。桂小林246.3.3圖生圖圖生圖是一種圖像生成技術(shù),它利用深度學(xué)習(xí)模型對(duì)圖像進(jìn)行學(xué)習(xí)和分析,從而生成與原圖具有相似風(fēng)格、結(jié)構(gòu)和特征的新圖像。其工作原理可以分為以下幾個(gè)步驟:(1)準(zhǔn)備數(shù)據(jù)集:收集大量的圖像數(shù)據(jù)集,這些數(shù)據(jù)集應(yīng)包含多種風(fēng)格、結(jié)構(gòu)和特征的圖像,以便模型能夠?qū)W習(xí)到更多的信息。(2)訓(xùn)練模型:使用準(zhǔn)備好的數(shù)據(jù)集訓(xùn)練深度學(xué)習(xí)模型。在訓(xùn)練過(guò)程中,模型會(huì)學(xué)習(xí)圖像中的特征信息,包括顏色、紋理、形狀等,并逐漸提高生成新圖像的能力。(3)生成新圖像:訓(xùn)練完成后,可以利用模型生成新的圖像。在生成新圖像時(shí),需要提供一張或多張輸入圖像,并設(shè)置生成目標(biāo),如生成風(fēng)格相似的新圖像、修復(fù)圖像中的缺陷等。模型會(huì)根據(jù)輸入圖像和生成目標(biāo),利用學(xué)習(xí)到的特征信息,生成具有相似風(fēng)格和結(jié)構(gòu)的新圖像。(4)優(yōu)化和調(diào)整:生成新圖像后,可能需要進(jìn)行一些優(yōu)化和調(diào)整,如調(diào)整圖像的尺寸、色彩、亮度等,以使生成的圖像更符合實(shí)際需求。桂小林256.3.4提示性工程提示性工程(PromptEngineering),又稱提示工程或提示詞工程,是一種用于優(yōu)化和設(shè)計(jì)與人工智能模型(尤其是大型語(yǔ)言模型)交互的指令的技術(shù)。這些指令被稱為“提示”,它們是人類與AI模型之間的“語(yǔ)言”,通過(guò)這種“語(yǔ)言”,人們可以告訴模型需要做什么以及如何做。通過(guò)精心設(shè)計(jì)的提示,可以引導(dǎo)模型更準(zhǔn)確地理解用戶的需求,從而生成更相關(guān)、更具創(chuàng)造性或更準(zhǔn)確的回答。具體來(lái)說(shuō),提示工程涉及設(shè)計(jì)、優(yōu)化和實(shí)施提示或指令的實(shí)踐,這些提示或指令用于引導(dǎo)大型語(yǔ)言模型的輸出,以幫助完成各種任務(wù)。它是一個(gè)多階段的過(guò)程,需要不斷的嘗試和改進(jìn)。提示工程的核心在于提供清晰、上下文豐富且針對(duì)特定目標(biāo)量身定制的提示,以解鎖人工智能應(yīng)用程序的全部潛力。桂小林266.4大模型的典型應(yīng)用大模型在教育教學(xué)、辦公領(lǐng)域的應(yīng)用日益廣泛。6.4.1大模型賦能教育大模型在大學(xué)教育和中小幼學(xué)教育中扮演了非常重要的角色,主要現(xiàn)在以下幾個(gè)方面。1、個(gè)性化教學(xué):大模型能夠分析學(xué)生的學(xué)習(xí)進(jìn)度、知識(shí)掌握情況和學(xué)習(xí)風(fēng)格,為每個(gè)學(xué)生提供個(gè)性化的學(xué)習(xí)計(jì)劃和資源。2、智能輔助教學(xué):大模型可以作為教師的得力助手,幫助教師減輕備課、教學(xué)和批改作業(yè)的負(fù)擔(dān)。教師可以利用大模型快速?gòu)暮A拷虒W(xué)資源中提取相關(guān)內(nèi)容,自動(dòng)生成教案和PPT,甚至設(shè)計(jì)課堂互動(dòng)環(huán)節(jié)。3、高效的資源管理:教育管理者可以利用大模型技術(shù)分析學(xué)校的各類數(shù)據(jù),如學(xué)生和教師的表現(xiàn)、學(xué)校設(shè)施的使用情況等,從而優(yōu)化資源分配,提高學(xué)校運(yùn)營(yíng)的效率和效益。4、數(shù)據(jù)驅(qū)動(dòng)的決策支持:大模型技術(shù)可以幫助學(xué)校收集和分析數(shù)據(jù),為管理者提供數(shù)據(jù)驅(qū)動(dòng)的決策支持。通過(guò)分析學(xué)生的學(xué)習(xí)數(shù)據(jù)、教師的教學(xué)數(shù)據(jù)以及學(xué)校的運(yùn)營(yíng)數(shù)據(jù),大模型可以揭示出潛在的問(wèn)題和趨勢(shì),幫助管理者做出更加明智的決策。5、拓展教育機(jī)會(huì):大模型技術(shù)支持的在線學(xué)習(xí)平臺(tái)和數(shù)字工具可以為偏遠(yuǎn)地區(qū)的學(xué)生提供優(yōu)質(zhì)教育資源,減少城鄉(xiāng)之間的教育差異。桂小林276.4.2AI賦能辦公AI辦公是指利用人工智能技術(shù),將人工智能與辦公場(chǎng)景相結(jié)合,實(shí)現(xiàn)智能化、自動(dòng)化的辦公方式。這種辦公方式旨在提高工作效率,減少人工操作,降低人力成本,同時(shí)也可以提高辦公的準(zhǔn)確性和安全性。AI辦公主要包括以下功能:1、自動(dòng)化文檔處理自動(dòng)化文檔處理是現(xiàn)代辦公自動(dòng)化的重要組成部分,它通過(guò)集成各種技術(shù),特別是人工智能技術(shù),實(shí)現(xiàn)了文檔處理的自動(dòng)化和智能化,從而顯著提高了工作效率。2、智能數(shù)據(jù)分析智能數(shù)據(jù)分析是指運(yùn)用統(tǒng)計(jì)學(xué)、模式識(shí)別、機(jī)器學(xué)習(xí)、數(shù)據(jù)抽象等數(shù)據(jù)分析工具從數(shù)據(jù)中發(fā)現(xiàn)知識(shí)的分析方法,其目標(biāo)是直接或間接地提高工作效率,在實(shí)際使用中充當(dāng)智能化助手的角色,使工作人員在恰當(dāng)?shù)臅r(shí)間擁有恰當(dāng)?shù)男畔?,從而幫助他們?cè)谟邢薜臅r(shí)間內(nèi)作出正確的決策。3、自然語(yǔ)言處理NLP是一種機(jī)器學(xué)習(xí)技術(shù),它使計(jì)算機(jī)能夠解讀、處理和理解人類語(yǔ)言,是人類和機(jī)器之間溝通的橋梁。桂小林286.4.2AI賦能辦公4、項(xiàng)目管理項(xiàng)目管理是指通過(guò)系統(tǒng)的方法和過(guò)程,計(jì)劃、組織、領(lǐng)導(dǎo)和控制資源,以實(shí)現(xiàn)特定目標(biāo)的活動(dòng)。
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 標(biāo)準(zhǔn)化廠房結(jié)構(gòu)加固設(shè)計(jì)方案
- 雨水收集利用設(shè)計(jì)方案
- 2025-2030中國(guó)智能養(yǎng)殖場(chǎng)行業(yè)市場(chǎng)技術(shù)應(yīng)用規(guī)模化發(fā)展供需分析及投資評(píng)估規(guī)劃研究報(bào)告
- 空氣流通性能測(cè)試方案
- 城市景觀可視性分析
- 高血壓病護(hù)理課件
- 文庫(kù)發(fā)布:技術(shù)必修二2.1
- 文庫(kù)發(fā)布:吸痰技術(shù)
- 醫(yī)院康復(fù)科護(hù)理年度述職
- 2026年個(gè)人防護(hù)安全知識(shí)試題
- 商業(yè)銀行集團(tuán)性客戶信貸風(fēng)險(xiǎn)評(píng)價(jià)體系構(gòu)建與實(shí)踐研究
- 7.1《集體生活成就我》課件 2025-2026道德與法治七年級(jí)上冊(cè) 統(tǒng)編版
- 瓦斯發(fā)電安全規(guī)程培訓(xùn)課件
- 林地復(fù)墾施工方案范本
- 酒店會(huì)務(wù)接待培訓(xùn)課件
- 私有云入門(mén)課件
- GB/T 45891-2025肥料和土壤調(diào)理劑肥料原料中腐植酸和疏水性黃腐酸含量的測(cè)定
- DB54T 0496-2025 退化高寒草原免耕補(bǔ)播技術(shù)規(guī)程
- 住建局窗口管理辦法
- 2025年離婚抖音作品離婚協(xié)議書(shū)
- 財(cái)政評(píng)審廉政管理辦法
評(píng)論
0/150
提交評(píng)論