版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
第四章大模型技術(shù)人工智能技術(shù)與AIGC應(yīng)用ArtificialIntelligenceTechnologyandAIGCApplications隨著人工智能的飛速發(fā)展,大模型技術(shù)已成為自然語言處理領(lǐng)域的重要里程碑。本章將深入探討大模型的基礎(chǔ)知識(shí)、發(fā)展歷程以及常見的AIGC大模型工具。從大模型的定義、特點(diǎn)到其預(yù)訓(xùn)練過程,我們將逐步剖析其背后的原理與機(jī)制。同時(shí),通過回顧大模型技術(shù)的發(fā)展歷程,讀者將清晰地看到從傳統(tǒng)語言模型到如今多模態(tài)大模型的演變軌跡,以及這一過程中關(guān)鍵技術(shù)的突破與創(chuàng)新。02大模型基礎(chǔ)03大模型技術(shù)的發(fā)展歷程04常見的AIGC大模型工具01學(xué)習(xí)目標(biāo)一、學(xué)習(xí)目標(biāo)知識(shí)目標(biāo)特點(diǎn)及作用01掌握大模型的定義、特點(diǎn)及其在自然語言處理中的作用。工作原理及重要性02了解掩碼語言模型和下一個(gè)句子預(yù)測(cè)等預(yù)訓(xùn)練任務(wù)的工作原理及其重要性。工具及應(yīng)用場(chǎng)景03熟悉ChatGPT、文心一言、訊飛星火等大模型工具的特點(diǎn)和應(yīng)用場(chǎng)景。技能目標(biāo)通過對(duì)Transformer架構(gòu)等技術(shù)的理解,能夠分析大模型的工作機(jī)制。能夠操作ChatGPT、文心一言等工具,完成簡(jiǎn)單的自然語言處理任務(wù)。學(xué)會(huì)如何利用預(yù)訓(xùn)練模型進(jìn)行特定任務(wù)的微調(diào)。素質(zhì)目標(biāo)幫助學(xué)生適應(yīng)快速發(fā)展的技術(shù)環(huán)境,掌握前沿技術(shù)的應(yīng)用。0201通過對(duì)大模型技術(shù)的學(xué)習(xí),激發(fā)學(xué)生對(duì)人工智能領(lǐng)域的創(chuàng)新思考。強(qiáng)調(diào)大模型技術(shù)的倫理和道德問題,引導(dǎo)學(xué)生樹立正確的人工智能價(jià)值觀。0403通過預(yù)訓(xùn)練和微調(diào)的學(xué)習(xí),培養(yǎng)學(xué)生對(duì)大規(guī)模數(shù)據(jù)的分析和處理能力。二、大模型基礎(chǔ)大模型概述大模型本質(zhì)上是一種大規(guī)模的深度神經(jīng)網(wǎng)絡(luò),通過學(xué)習(xí)海量文本數(shù)據(jù)來理解和生成人類語言。其主要特征包括層次結(jié)構(gòu)深、參數(shù)數(shù)量多以及訓(xùn)練數(shù)據(jù)量大。因此,大模型通常能夠捕捉到更細(xì)微的模式和規(guī)律,展現(xiàn)出更強(qiáng)的泛化能力和表達(dá)能力。大模型的優(yōu)點(diǎn)如下:(1)上下文理解能力強(qiáng)。大模型具有很強(qiáng)的上下文理解能力,能夠理解復(fù)雜的語義和語境。這使得它們能夠產(chǎn)生更準(zhǔn)確、更連貫的回答。(2)語言生成能力強(qiáng)。大模型可以生成更自然、更流利的語言,減少生成輸出時(shí)的錯(cuò)誤。(3)學(xué)習(xí)能力強(qiáng)。大模型能夠從海量數(shù)據(jù)中學(xué)習(xí),并借助所學(xué)知識(shí)和模式,提供更準(zhǔn)確的回答和預(yù)測(cè)。這使得它們?cè)诮鉀Q復(fù)雜問題和應(yīng)對(duì)新場(chǎng)景時(shí)表現(xiàn)得更為出色。什么是大模型?搜索引擎(替代傳統(tǒng)搜索,如ChatGPT)辦公與創(chuàng)作(文本生成、圖像編輯)教育(啟發(fā)式教學(xué)、多輪對(duì)話)醫(yī)療(輔助診斷、藥物研發(fā),如盤古藥物分子大模型)金融(風(fēng)險(xiǎn)管理、決策支持)其他行業(yè)(電力、商品檢索等)大模型的應(yīng)用場(chǎng)景大模型預(yù)訓(xùn)練過程大模型主要用于處理和生成類似人類的文本內(nèi)容。這些模型通過在海量文本數(shù)據(jù)上的訓(xùn)練,能夠理解語言的結(jié)構(gòu)、語法、上下文以及語義關(guān)系。值得注意的是,大模型常常是在大量文本語料庫,如書籍、文章、網(wǎng)頁上進(jìn)行預(yù)訓(xùn)練的。預(yù)訓(xùn)練是指將大量低成本收集的訓(xùn)練數(shù)據(jù)放在一起,經(jīng)過某種方法去學(xué)習(xí)數(shù)據(jù)中的共性,然后將其中的共性“移植”到特定任務(wù)的模型中,再使用相關(guān)特定領(lǐng)域的少量標(biāo)注數(shù)據(jù)進(jìn)行微調(diào)。例如,預(yù)訓(xùn)練可以教模型預(yù)測(cè)文本字符串中的下一個(gè)單詞,捕捉語言用法和語義的復(fù)雜性。什么是大模型預(yù)訓(xùn)練?大模型預(yù)訓(xùn)練過程掩碼(Mask)語言模型是一種基于神經(jīng)網(wǎng)絡(luò)的語言模型,它可以在預(yù)訓(xùn)練階段使用海量的未標(biāo)注語料庫進(jìn)行訓(xùn)練,然后在有監(jiān)督的任務(wù)中進(jìn)行微調(diào),如文本分類、序列標(biāo)注等。掩碼語言模型的主要特點(diǎn)是通過對(duì)輸入序列中的一部分標(biāo)記進(jìn)行掩碼標(biāo)記,使得模型在訓(xùn)練過程中能夠?qū)W習(xí)到文本的全局上下文。掩碼語言模型的核心思想就是在輸入序列中隨機(jī)選取部分序列,將其替換成特殊的掩碼標(biāo)記。在模型訓(xùn)練過程中,模型需要根據(jù)前面的標(biāo)記來預(yù)測(cè)被掩碼標(biāo)記的實(shí)際內(nèi)容,這種訓(xùn)練方式能讓模型學(xué)習(xí)到句子的全局表征,進(jìn)而提升性能。掩碼語言模型大模型預(yù)訓(xùn)練過程掩碼語言模型的訓(xùn)練過程類似于完形填空,預(yù)訓(xùn)練任務(wù)直接將輸入文本中的部分單詞遮住,并通過Transformer架構(gòu)還原單詞,從而避免了雙向大語言模型可能導(dǎo)致的信息泄露問題,迫使模型使用被遮住的詞的上下文信息進(jìn)行預(yù)測(cè)。例如有這樣一段文本:我愛吃飯。用掩碼標(biāo)記Mask去遮蓋后的效果可能是“我愛Mask飯”。Mask機(jī)制打破原文本信息,在做預(yù)訓(xùn)練時(shí),讓模型去做文本重建,模型從上下文中獲取各種信息,從而預(yù)測(cè)出被Mask遮蓋的詞匯。掩碼語言模型案例大模型預(yù)訓(xùn)練過程下一個(gè)句子預(yù)測(cè)(NextSentencePrediction,NSP)是一個(gè)常見的自然語言處理任務(wù),這個(gè)任務(wù)是指給定兩個(gè)句子A和B,讓模型判斷B是否是A的下一個(gè)句子。這個(gè)任務(wù)可以讓模型學(xué)習(xí)到語言中的句子關(guān)系和連貫性。在預(yù)訓(xùn)練過程中,掩碼語言模型可以通過上下文信息還原被掩蓋的詞語,從而學(xué)習(xí)到上下文相關(guān)的文本表示。然而,對(duì)于閱讀理解等需要處理兩段文本的任務(wù),僅靠掩碼語言模型難以明確學(xué)習(xí)兩段文本之間的關(guān)系。為此,下一個(gè)句子預(yù)測(cè)任務(wù)被設(shè)計(jì)為一種用于構(gòu)建兩段文本關(guān)系的預(yù)訓(xùn)練任務(wù)。下一個(gè)句子預(yù)測(cè)1.大語言模型。專注于處理和理解自然語言文本,常用于文本生成、情感分析、問答系統(tǒng)等。2.視覺大模型。專門用來處理和理解視覺信息(如圖像和視頻),用于圖像識(shí)別、視頻分析、圖像生成等視覺領(lǐng)域的任務(wù)。3.多模態(tài)大模型。能夠處理并理解兩種或兩種以上不同類型的輸入數(shù)據(jù)
(例如文本、圖像、音頻等),通過融合來自不同模態(tài)的信息,能夠執(zhí)行比單一模態(tài)更為復(fù)雜和全面的任務(wù)。4.基礎(chǔ)大模型。通常指那些可以廣泛應(yīng)用于多種不同任務(wù)的模型,它們?cè)陬A(yù)訓(xùn)練階段沒有特定的應(yīng)用方向,而是學(xué)習(xí)大量通用知識(shí)。大模型的類型Token與大模型Token是文本中一個(gè)具有意義的單元,它可以是單詞、數(shù)字或標(biāo)點(diǎn)符號(hào)。在自然語言處理中,機(jī)器學(xué)習(xí)模型通常以Token作為輸入的基本單元,它可以被視為文本的最小組成單位。在英文中,一個(gè)Token可以是一個(gè)單詞,也可以是一個(gè)標(biāo)點(diǎn)符號(hào)。例如,“Iloveyou”這個(gè)句子可以被分割成3個(gè)Token:“I”“l(fā)ove”“you”。對(duì)模型而言,Token是一種數(shù)字化的表示形式。每個(gè)Token都與一個(gè)唯一的數(shù)字ID相關(guān)聯(lián),模型通過這些數(shù)字ID來區(qū)分不同的Token。在訓(xùn)練過程中,模型學(xué)習(xí)將文本映射到這些數(shù)字ID的方法,以便對(duì)新的文本進(jìn)行編碼和解碼。例如,對(duì)于英文單詞,一個(gè)詞匯表中可能包含諸如“hello”“world”“chat”等單詞,每個(gè)單詞對(duì)應(yīng)一個(gè)唯一的數(shù)字ID。當(dāng)輸入文本被拆分成多個(gè)Token之后,模型會(huì)查找每個(gè)Token在詞匯表中的對(duì)應(yīng)ID,并用這些ID來表示輸入文本。Token與大模型Token中的常見術(shù)語及說明術(shù)語說明Token文本中的一個(gè)基本單位,對(duì)于構(gòu)建高效和準(zhǔn)確的文本處理模型具有關(guān)鍵性的作用Subword(子詞)子詞是指比單詞更小的語言單位,根據(jù)語料庫中的出現(xiàn)頻率來自動(dòng)劃分。比如,一個(gè)單詞“transformer”可以被劃分成兩個(gè)子詞,“trans”和“former”,或者3個(gè)子詞,“t”“rans”“former”,或者4個(gè)子詞,“t”“r”“ans”“former”,等等。不同的劃分方法會(huì)產(chǎn)生不同數(shù)量和長(zhǎng)度的子詞Wordembedding(詞嵌入)一種將文本中的單詞或其他文本單位映射到連續(xù)向量空間中的表示方法。這種表示方法可以將文本中的單詞或其他文本單位轉(zhuǎn)換成實(shí)數(shù)向量,使得計(jì)算機(jī)可以對(duì)文本進(jìn)行處理。詞嵌入在文本分類、情感分析、機(jī)器翻譯、命名實(shí)體識(shí)別、問答系統(tǒng)等任務(wù)中,可以作為輸入特征用于機(jī)器學(xué)習(xí)或深度學(xué)習(xí)模型Encoding(編碼)通常指將輸入數(shù)據(jù)轉(zhuǎn)換為能夠被理解、處理的格式的過程。這種編碼通常用于降維、特征提取、特征表示等任務(wù),旨在從高維度的輸入數(shù)據(jù)中提取有用的特征,并將其轉(zhuǎn)換為更簡(jiǎn)潔、更易處理的形式,以便用于后續(xù)的機(jī)器學(xué)習(xí)、模型訓(xùn)練等任務(wù)。編碼在深度學(xué)習(xí)中具有重要的作用,它可以用于從原始數(shù)據(jù)中提取有用的特征,減少數(shù)據(jù)維度,去除噪聲和冗余信息,提高模型的泛化能力和訓(xùn)練效果人與機(jī)學(xué)習(xí)的本質(zhì)異同共性基礎(chǔ)經(jīng)驗(yàn)驅(qū)動(dòng):人類通過實(shí)踐/觀察學(xué)習(xí),AI通過數(shù)據(jù)訓(xùn)練學(xué)習(xí)強(qiáng)化機(jī)制:人類用獎(jiǎng)懲(社會(huì)反饋),AI用損失函數(shù)/獎(jiǎng)勵(lì)函數(shù)迭代優(yōu)化:雙方均依賴反饋提升能力根本差異人類與AI學(xué)習(xí)的核心對(duì)比人與機(jī)學(xué)習(xí)的本質(zhì)異同基礎(chǔ)能力時(shí)空感知、具身認(rèn)知、語言符號(hào)與現(xiàn)實(shí)映射高階能力跨領(lǐng)域聯(lián)想、抽象創(chuàng)造力、情感共鳴社會(huì)智慧理解語境潛臺(tái)詞、文化微妙性、道德判斷人類獨(dú)特優(yōu)勢(shì)人與機(jī)學(xué)習(xí)的本質(zhì)異同人類:提供創(chuàng)造力+倫理框架+跨場(chǎng)景適應(yīng)力
↓↓↓
AI系統(tǒng):承擔(dān)數(shù)據(jù)挖掘+模式預(yù)測(cè)+超速計(jì)算
↓↓↓
反饋閉環(huán):人類修正AI偏差,AI擴(kuò)展人類認(rèn)知邊界
互補(bǔ)共生:突破各自邊界超越替代,走向共生“人類的適應(yīng)力賦予AI進(jìn)化方向,AI的算力釋放人類創(chuàng)新潛能——協(xié)同進(jìn)化是文明躍遷的下一階梯”三、大模型技術(shù)的發(fā)展歷程大模型技術(shù)的發(fā)展歷程2006年,?杰弗里·辛頓(GeoffreyHinton)提出逐層無監(jiān)督預(yù)訓(xùn)練方法?,有效緩解了深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失問題,為神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)提供了重要優(yōu)化途徑。此后,深度學(xué)習(xí)在多個(gè)領(lǐng)域取得突破性進(jìn)展,引領(lǐng)了新一輪的發(fā)展浪潮?;仡欉^去十多年,基于深度學(xué)習(xí)的人工智能技術(shù)經(jīng)歷了重大的研究范式演變:從早期依賴“標(biāo)注數(shù)據(jù)監(jiān)督學(xué)習(xí)”的任務(wù)特定模型,發(fā)展到“無標(biāo)注數(shù)據(jù)預(yù)訓(xùn)練+標(biāo)注數(shù)據(jù)微調(diào)”的預(yù)訓(xùn)練模型,再到如今采用“大規(guī)模無標(biāo)注數(shù)據(jù)預(yù)訓(xùn)練+指令微調(diào)+人類反饋對(duì)齊”的大模型階段。這一歷程見證了技術(shù)從?小數(shù)據(jù)到大數(shù)據(jù)、小模型到大模型、專用到通用?的飛躍,標(biāo)志著人工智能技術(shù)正邁入大模型時(shí)代。大模型技術(shù)的發(fā)展歷程統(tǒng)計(jì)語言模型主要依據(jù)?馬爾可夫假設(shè)?來構(gòu)建文本序列的生成概率。其中,N-gram語言模型是一個(gè)典型代表,它認(rèn)為下一個(gè)詞匯的出現(xiàn)概率僅與前面?N個(gè)詞匯?相關(guān)(即遵循N階馬爾可夫假設(shè))。然而,這類模型存在顯著的問題:它們?nèi)菀资艿?數(shù)據(jù)稀疏?的影響,導(dǎo)致概率分布估計(jì)不準(zhǔn)確。為改善這一狀況,需采用平滑策略進(jìn)行調(diào)整。但即便如此,統(tǒng)計(jì)語言模型在文本序列建模方面的能力仍然相對(duì)較弱?。(一)統(tǒng)計(jì)語言模型大模型技術(shù)的發(fā)展歷程針對(duì)統(tǒng)計(jì)語言模型的局限性,神經(jīng)語言模型利用神經(jīng)網(wǎng)絡(luò)(例如MLP、RNN)對(duì)詞匯間的語義共現(xiàn)關(guān)系進(jìn)行建模,能夠有效捕捉復(fù)雜的語義依賴關(guān)系,并精準(zhǔn)預(yù)測(cè)詞匯生成的概率。而Word2vec簡(jiǎn)化了神經(jīng)語言模型的架構(gòu),可以從無監(jiān)督語料中學(xué)習(xí)具有可遷移性的詞向量,為預(yù)訓(xùn)練語言模型的研究提供了基礎(chǔ)。(二)神經(jīng)語言模型大模型技術(shù)的發(fā)展歷程該模型主要是基于“預(yù)訓(xùn)練+微調(diào)”的學(xué)習(xí)范式構(gòu)建,首先通過自監(jiān)督學(xué)習(xí)任務(wù)從無標(biāo)注文本中學(xué)習(xí)可遷移的模型參數(shù),進(jìn)而通過有監(jiān)督微調(diào)適配下游任務(wù)。早期的代表性預(yù)訓(xùn)練語言模型包括ELMo、GPT-1和BERT等。其中,ELMo模型基于傳統(tǒng)的循環(huán)神經(jīng)網(wǎng)絡(luò)(LSTM)構(gòu)建,存在長(zhǎng)距離序列建模能力弱的問題;隨著Transformer的提出,神經(jīng)網(wǎng)絡(luò)序列建模能力得到了顯著提升,GPT-1和BERT都是基于Transformer架構(gòu)構(gòu)建的,可通過微調(diào)學(xué)習(xí)解決大部分的自然語言處理任務(wù)。(三)預(yù)訓(xùn)練語言模型大模型技術(shù)的發(fā)展歷程1.探索階段在預(yù)訓(xùn)練語言模型的研發(fā)歷程中,擴(kuò)展定律(ScalingLaw)扮演了關(guān)鍵角色。它指出,?隨著模型參數(shù)和預(yù)訓(xùn)練數(shù)據(jù)規(guī)模的增加,模型的能力與任務(wù)效果會(huì)隨之提升?。OpenAI在研發(fā)GPT系列時(shí),通過GPT-1(1.1億參數(shù))、GPT-2(15億參數(shù))到GPT-3(1750億參數(shù))的逐步擴(kuò)展,驗(yàn)證了這一法則。2.提升階段早期的語言大模型雖展現(xiàn)出少樣本學(xué)習(xí)能力,但主要局限于預(yù)測(cè)下一個(gè)單詞,難以有效遵循人類指令,可能輸出無用甚至有害信息,與人類偏好存在偏差。?為解決這些問題,主要采用了以下技術(shù)?:?指令微調(diào)(InstructionTuning)?,通過格式化的訓(xùn)練數(shù)據(jù)(指令和回答配對(duì))強(qiáng)化大模型的通用任務(wù)泛化能力;?基于人類反饋的強(qiáng)化學(xué)習(xí)(RLHF)?,引入人類標(biāo)注者訓(xùn)練與人類偏好對(duì)齊的獎(jiǎng)勵(lì)模型,指導(dǎo)大模型訓(xùn)練,使其更好地遵循用戶意圖。(四)語言大模型從統(tǒng)計(jì)語言模型到多模態(tài)大模型,大模型技術(shù)經(jīng)歷了哪些關(guān)鍵發(fā)展階段?請(qǐng)結(jié)合本章內(nèi)容,討論每個(gè)階段的核心技術(shù)突破及其對(duì)自然語言處理領(lǐng)域的貢獻(xiàn)。大模型技術(shù)的生態(tài)發(fā)展OpenAIAPI開放多版本GPT模型接入,支持API調(diào)用執(zhí)行任務(wù)AnthropicClaude系列閉源模型(Claude/Claude-Instant)核心技術(shù):無監(jiān)督預(yù)訓(xùn)練+RLHF+ConstitutionalAI特點(diǎn):高安全性,上下文支持最高200K詞元百度文心一言服務(wù)形式:App/網(wǎng)頁/API創(chuàng)新點(diǎn):插件機(jī)制擴(kuò)展能力邊界訊飛星火核心能力:多輪對(duì)話、代碼/多模態(tài)理解關(guān)鍵產(chǎn)品:星火一體機(jī)(國產(chǎn)化私有部署方案)主流商業(yè)大模型平臺(tái)大模型技術(shù)的生態(tài)發(fā)展行業(yè)賦能場(chǎng)景領(lǐng)域應(yīng)用場(chǎng)景價(jià)值體現(xiàn)傳媒智能新聞撰寫降本增效影視創(chuàng)意內(nèi)容生成提升作品質(zhì)量營銷虛擬客服/產(chǎn)品推廣精準(zhǔn)觸達(dá)用戶軍事情報(bào)分析+實(shí)時(shí)決策支持戰(zhàn)場(chǎng)響應(yīng)能力升級(jí)教育個(gè)性化教學(xué)+教材智能化打破教育資源壁壘金融風(fēng)控分析+智能投顧服務(wù)人性化與效率提升醫(yī)療輔助診療全流程優(yōu)化診斷精度大模型,通常指的是擁有巨大參數(shù)量的機(jī)器學(xué)習(xí)模型,尤其是在NLP、計(jì)算機(jī)視覺(computervision,CV)以及多模態(tài)領(lǐng)域的應(yīng)用中。這些模型基于預(yù)訓(xùn)練方式,通過NLP理解和學(xué)習(xí)人類語言,以人機(jī)對(duì)話方式,完成信息檢索、機(jī)器翻譯、文本摘要、代碼編寫等內(nèi)容生成任務(wù)。大模型的特性四、常見的AIGC大模型工具常見的AIGC大模型工具ChatGPT(全名:ChatGenerativePre-trainedTransformer),是OpenAI推出的一款出色的AIGC大模型工具。它是一款聊天機(jī)器人程序,能夠基于在預(yù)訓(xùn)練階段所見的模式和統(tǒng)計(jì)規(guī)律生成回答,還能根據(jù)聊天的上下文進(jìn)行互動(dòng),真正像人類一樣來聊天交流。
它強(qiáng)大的自然語言處理能力和多模態(tài)轉(zhuǎn)化能力使之可用于多個(gè)場(chǎng)景和領(lǐng)域。它可用來開發(fā)聊天機(jī)器人,編寫和調(diào)試計(jì)算機(jī)程序,撰寫郵件,進(jìn)行媒體、文學(xué)相關(guān)領(lǐng)域的創(chuàng)作,包括創(chuàng)作音樂、視頻腳本、文案、童話故事、詩歌和歌詞等。它還可以用作自動(dòng)客服、語音識(shí)別、機(jī)器翻譯、情感分析、信息檢索等。網(wǎng)址:/
(由于政策限制,國內(nèi)暫時(shí)無法直接訪問)。ChatGPT人工智能是近年來科技領(lǐng)域發(fā)展最為迅猛的領(lǐng)域之一,其中的ChatGPT作為一種基于大數(shù)據(jù)和深度學(xué)習(xí)技術(shù)的語言生成模型,引發(fā)了廣泛的關(guān)注和爭(zhēng)議。支持者們認(rèn)為,ChatGPT在許多領(lǐng)域中具有巨大的優(yōu)勢(shì)。然而,對(duì)于ChatGPT的爭(zhēng)議也在增加。一方面,一些人擔(dān)憂ChatGPT可能導(dǎo)致人力資源的減少和人類勞動(dòng)的替代。隨著ChatGPT在許多領(lǐng)域中的應(yīng)用,可能會(huì)導(dǎo)致部分傳統(tǒng)工作崗位的消失,從而影響社會(huì)的就業(yè)和經(jīng)濟(jì)穩(wěn)定。此外,民眾對(duì)ChatGPT的看法也存在差異。一些人對(duì)ChatGPT持積極態(tài)度,認(rèn)為其為人們提供了便利和高效的服務(wù),可以幫助人們更好地完成工作和生活中的任務(wù)。而一些人對(duì)ChatGPT持保守態(tài)度,擔(dān)憂其可能對(duì)人類勞動(dòng)市場(chǎng)和社會(huì)產(chǎn)生負(fù)面影響,導(dǎo)致失業(yè)和不平等。還有一些人對(duì)ChatGPT持警覺態(tài)度,認(rèn)為其潛在風(fēng)險(xiǎn)可能遠(yuǎn)遠(yuǎn)超過其益處,可能導(dǎo)致人類失去對(duì)決策的控制權(quán),甚至可能威脅到人類的自主性和尊嚴(yán)。ChatGPT:人工智能助手還是潛在的風(fēng)險(xiǎn)?常見的AIGC大模型工具網(wǎng)址:/DeepSeek是杭州深度求索人工智能基礎(chǔ)技術(shù)研究有限公司推出的AI助手,免費(fèi)體驗(yàn)與全球領(lǐng)先AI模型的互動(dòng)交流,于2025年1月15日正式上線。
DeepSeekDeepSeek使用數(shù)據(jù)蒸餾技術(shù)來生成高質(zhì)量數(shù)據(jù),通過提取和利用數(shù)據(jù)中的關(guān)鍵信息,優(yōu)化了訓(xùn)練數(shù)據(jù)集,從而提高了訓(xùn)練效率,同時(shí)采用了一種創(chuàng)新的“混合專家”方法。在用戶提出問題時(shí),模型會(huì)智能地判斷是否需要激活其內(nèi)部的醫(yī)療專家、翻譯、律師或物理學(xué)家等特定領(lǐng)域的專家系統(tǒng)。傳統(tǒng)模型往往會(huì)同時(shí)激活所有專家系統(tǒng),造成能源和計(jì)算能力的浪費(fèi)。DeepSeek通過將這些小型“專家”系統(tǒng)與一個(gè)“通才”系統(tǒng)結(jié)合,實(shí)現(xiàn)了相同的功能,但更加高效。“通才”系統(tǒng)對(duì)各個(gè)主題都有一定的了解,能夠有效地協(xié)調(diào)各個(gè)專家系統(tǒng)之間的互動(dòng),從而提升整體性能。常見的AIGC大模型工具網(wǎng)址:/文心一言(英文名:ERNIEBot)是百度全新一代知識(shí)增強(qiáng)大語言模型,文心大模型家族的新成員,能夠與人對(duì)話互動(dòng)、回答問題、協(xié)助創(chuàng)作,高效便捷地幫助人們獲取信息、知識(shí)和靈感。文心一言核心功能1、文本生成:創(chuàng)作輔助(可生成營銷文案、小說、詩歌,支持風(fēng)格定制)、代碼生成。2、圖像生成:文生圖、圖生圖。3、企業(yè)級(jí)服務(wù):智能客服、數(shù)據(jù)分析(自動(dòng)生成可視化報(bào)告,支持SQL語句生成與數(shù)據(jù)解讀)。常見的AIGC大模型工具網(wǎng)址:/desk/訊飛星火認(rèn)知大模型(SparkDesk)是科大訊飛在2023年正式宣布推出的AIGC對(duì)話產(chǎn)品。通過輸入相關(guān)信息,訊飛星火可以快速生成文章的大綱和關(guān)鍵詞,并自動(dòng)補(bǔ)充文章內(nèi)容,讓內(nèi)容創(chuàng)作更加輕松高效。這使得優(yōu)秀的作家和媒體從業(yè)者能夠更加專注于思考和創(chuàng)新。訊飛星火常見的AIGC大模型工具網(wǎng)址:/通義,由通義千問更名而來,是阿里云推出的超大規(guī)模語言模型,是阿里云大模型系列中的新成員,旨在為各行各業(yè)提供優(yōu)質(zhì)的自然語言處理服務(wù),并且能夠應(yīng)對(duì)各種復(fù)雜的任務(wù)挑戰(zhàn)。于2023年9月13日正式向公眾開放。通義截至2024年5月,通義千問提供通義靈碼(編碼助手)、通義智文(閱讀助手)、通義聽悟(工作學(xué)習(xí))、通義星塵(個(gè)性化角色創(chuàng)作平臺(tái))、通義點(diǎn)金(投研助手)、通義曉蜜(智能客服)、通義仁心(健康助手)、通義法睿(法律顧問)8大行業(yè)模型。常見的AIGC大模型工具網(wǎng)址:/豆包是字節(jié)跳動(dòng)公司基于云雀模型開發(fā)的AI工具,提供聊天機(jī)器人、寫作助手以及英語學(xué)習(xí)助手等功能,它可以回答各種問題并進(jìn)行對(duì)話,幫助人們
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025-2030系列產(chǎn)品客戶群體細(xì)分與精準(zhǔn)營銷策略研究報(bào)告
- 2025-2030眼科顯微鏡防藍(lán)光技術(shù)臨床效益評(píng)估
- 2025-2030直白建筑現(xiàn)代化的必要性規(guī)劃咨詢
- 2025-2030皮鞋制造產(chǎn)業(yè)市場(chǎng)現(xiàn)狀供需分析及投資評(píng)估規(guī)劃分析研究報(bào)告
- 2025-2030皮革制品行業(yè)市場(chǎng)發(fā)展分析與發(fā)展投資布局
- 2025-2030甲醇燃料行業(yè)市場(chǎng)深度調(diào)研及發(fā)展趨勢(shì)與投資戰(zhàn)略研究報(bào)告
- 2025-2030珍珠巖行業(yè)市場(chǎng)供需動(dòng)向研究與投資評(píng)估發(fā)展規(guī)劃分析課題
- 2025年湖北中醫(yī)藥高等??茖W(xué)校馬克思主義基本原理概論期末考試模擬題及答案解析(奪冠)
- 2025年湖南理工職業(yè)技術(shù)學(xué)院?jiǎn)握新殬I(yè)技能考試題庫附答案解析
- 2025年確山縣幼兒園教師招教考試備考題庫及答案解析(奪冠)
- DB41T 877-2013 食用菊花栽培技術(shù)規(guī)程
- 大學(xué)生創(chuàng)業(yè)導(dǎo)論學(xué)習(xí)通超星期末考試答案章節(jié)答案2024年
- DB23T 3735-2024云杉花墨天牛防治技術(shù)規(guī)程
- 車輛安全操作規(guī)程
- 2024年中考語文復(fù)習(xí)沖刺課內(nèi)古詩詞閱讀(上海專用)(原卷版+解析版)
- 放射科醫(yī)院感染管理:加強(qiáng)院感控制
- 建筑防水工程技術(shù)規(guī)程DBJ-T 15-19-2020
- 《公路橋涵養(yǎng)護(hù)規(guī)范》(JTG5120-2021)
- 矢量網(wǎng)絡(luò)分析儀校準(zhǔn)規(guī)范
- 高考英語閱讀理解分類及方法課件
- 華為在歐洲市場(chǎng)分析報(bào)告
評(píng)論
0/150
提交評(píng)論