清華大學(xué)唐杰:大模型與超級(jí)智能_第1頁(yè)
清華大學(xué)唐杰:大模型與超級(jí)智能_第2頁(yè)
清華大學(xué)唐杰:大模型與超級(jí)智能_第3頁(yè)
清華大學(xué)唐杰:大模型與超級(jí)智能_第4頁(yè)
清華大學(xué)唐杰:大模型與超級(jí)智能_第5頁(yè)
已閱讀5頁(yè),還剩23頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

超大規(guī)模預(yù)訓(xùn)練模型(也稱基礎(chǔ)模型、大模型,英文為FoundationModel、BigModel等)快速發(fā)展,成為國(guó)際人工智能領(lǐng)域研究和應(yīng)用的前沿焦點(diǎn)。OpenAIChatGPT和Sora的推出引發(fā)了社會(huì)和公眾的廣泛關(guān)注,并引起了大模型是否會(huì)引發(fā)新一輪行業(yè)變革甚至新一次工業(yè)革命的討論。大模型作為ChatGPT和Sora等生成式人工智能技術(shù)產(chǎn)品的核心技術(shù)基座,正在快速改變產(chǎn)業(yè)格局,孕育出全新的用戶交互模式,形成輿論引導(dǎo)、社會(huì)治理、信息服務(wù)等方面的不對(duì)稱優(yōu)勢(shì)。大模型也被認(rèn)為是通向通用人工智能(ArtificialGeneralIntelligence,AGI)的重要途徑之一,成為各國(guó)人工智能發(fā)展的新方向,正在成為新一代人工智能的基礎(chǔ)設(shè)施。人工智能大模型已成為國(guó)際科技“必爭(zhēng)之地”,實(shí)現(xiàn)國(guó)產(chǎn)全自研、自主可控的人工智能基礎(chǔ)模型迫在眉睫。當(dāng)前,我國(guó)人工智能基礎(chǔ)模型研究、應(yīng)用與產(chǎn)業(yè)化發(fā)展正處于從模仿追趕邁向創(chuàng)新引領(lǐng)的關(guān)鍵時(shí)期。大模型的快速發(fā)展給全球科技創(chuàng)新帶來(lái)全新挑戰(zhàn):超大算力需求、超大規(guī)模數(shù)據(jù)需求、全新模型訓(xùn)練算法與框架、安全可信的軟硬件系統(tǒng),同時(shí)大模型的應(yīng)用需求也更加動(dòng)態(tài)多樣,要求對(duì)大模型的不同層次進(jìn)行深入研究。這是個(gè)全新的人工智能科學(xué)難題,也是我們趕超國(guó)際的機(jī)會(huì)。發(fā)展可媲美人類(lèi)智能的人工智能系統(tǒng)已經(jīng)成為人工智能領(lǐng)域研究的國(guó)際共識(shí)。大模型發(fā)展回顧從技術(shù)層面而言,ChatGPT的優(yōu)異表現(xiàn)主要依托超大規(guī)模預(yù)訓(xùn)練基座模型GPT-3/3.5/4、有監(jiān)督指令微調(diào)以及基于人類(lèi)反饋的強(qiáng)化學(xué)習(xí)?;仡櫞竽P偷陌l(fā)展史,大致可分為四個(gè)階段。算法之戰(zhàn)(2018—2020)。2017年谷歌提出了具有自注意力機(jī)制的Transformer機(jī)器學(xué)習(xí)模型架構(gòu),該架構(gòu)迅速席卷了整個(gè)人工智能研究領(lǐng)域,成為自然語(yǔ)言處理等相關(guān)研究的主要方法。2018~2020年先后出現(xiàn)了基于Transformer的BERT、GPT/GPT-2/GPT-3、T5等基于大規(guī)模無(wú)標(biāo)注數(shù)據(jù)自監(jiān)督學(xué)習(xí)的大規(guī)模預(yù)訓(xùn)練算法。這些算法模型均在大數(shù)據(jù)支持下?lián)碛休^大規(guī)模模型參數(shù),具備較強(qiáng)的通用能力,可完成多場(chǎng)景任務(wù),顯著降低學(xué)習(xí)成本、提高學(xué)習(xí)效率。尤其是BERT在十多個(gè)自然語(yǔ)言理解任務(wù)上的精度大大超過(guò)傳統(tǒng)算法,掀起了BERTology的研究范式;2019年GPT-2實(shí)現(xiàn)了自然流暢的文本內(nèi)容生成,彼時(shí)基于GPT-2的應(yīng)用Talk2Transformer讓人驚艷(當(dāng)然現(xiàn)在和ChatGPT比起來(lái)算是粗糙的了),同時(shí)也使筆者堅(jiān)定了投身生成式人工智能的決心;2020年谷歌的T5將自然語(yǔ)言的翻譯、分類(lèi)、回歸、摘要生成等任務(wù)都統(tǒng)一轉(zhuǎn)成文本到文本(text-to-text)任務(wù)??梢哉f(shuō)2018~2020年是大模型的算法創(chuàng)新年,這段時(shí)間筆者團(tuán)隊(duì)研發(fā)了屬于我們自己的算法GLM(GeneralLanguageModel)。模型之戰(zhàn)(2020—2022)。這個(gè)時(shí)期基于各種預(yù)訓(xùn)練模型框架和算法,多種模型如雨后春筍般誕生。2020年的GPT-3(擁有1750億參數(shù))可以看作這一戰(zhàn)的起點(diǎn),它開(kāi)啟了基座模型的新時(shí)代,在語(yǔ)言生成、上下文學(xué)習(xí)和知識(shí)(常識(shí))理解等方面展現(xiàn)出驚人的能力。很多人喜歡把這一年叫做大模型元年。隨后全球范圍內(nèi)掀起了一股大模型研究的熱潮,谷歌、Meta等公司開(kāi)始不斷發(fā)布百億到千億的大型語(yǔ)言模型,例如Gopher(2021年)、Chinchilla(2022年)、PaLM(2022年)、Claude(2022年)。但是這些模型都不開(kāi)源,因此開(kāi)源大語(yǔ)言模型也開(kāi)始受到關(guān)注,比如Meta的OPT(2022年)、LLaMA(2023年)和HuggingFace的BLOOM(2022年)。國(guó)內(nèi)一直缺少原創(chuàng)的開(kāi)源千億基座模型,更重要的是產(chǎn)學(xué)研各界對(duì)大模型的發(fā)展和產(chǎn)業(yè)化還沒(méi)有形成共識(shí),對(duì)于應(yīng)該發(fā)展大模型還是轉(zhuǎn)而發(fā)展小模型,大家還沒(méi)有達(dá)成統(tǒng)一認(rèn)識(shí)。2022年,清華大學(xué)和智譜AI開(kāi)源了基于GLM算法訓(xùn)練的千億基座模型GLM-130B,這一工作引起了全世界的關(guān)注,包括斯坦福大學(xué)、谷歌、OpenAI、Apple、Meta都對(duì)該模型進(jìn)行了深入分析和對(duì)比。2022年11月斯坦福大學(xué)發(fā)布的大模型評(píng)測(cè)報(bào)告,對(duì)全球30余個(gè)開(kāi)源模型進(jìn)行了深入評(píng)測(cè),GLM-130B是亞洲唯一入選的模型,在準(zhǔn)確性和公平性指標(biāo)上與GPT-3接近或持平,魯棒性、校準(zhǔn)誤差和無(wú)偏性優(yōu)于GPT-3。這一時(shí)期,國(guó)內(nèi)外在大模型的研發(fā)上可以說(shuō)是百花齊放。國(guó)內(nèi)如清華大學(xué)、北京智源人工智能研究院、百度、華為、阿里、智譜AI等,都競(jìng)相追趕。產(chǎn)業(yè)落地之戰(zhàn)(2023)。2022年11月30日ChatGPT發(fā)布,喚醒了所有人對(duì)大模型的認(rèn)知,大模型開(kāi)始廣為人知。一夜之間,似乎所有人對(duì)必須發(fā)展大模型達(dá)成了共識(shí)。大模型的發(fā)展不再僅限于模型技術(shù)的發(fā)展和模型訓(xùn)練本身,更重要的是如何實(shí)現(xiàn)模型的產(chǎn)業(yè)化應(yīng)用。大模型開(kāi)始在各個(gè)領(lǐng)域開(kāi)花結(jié)果,在金融、互聯(lián)網(wǎng)和教育等眾多行業(yè)落地。得益于GLM-130B基座模型的能力,筆者團(tuán)隊(duì)僅用了2個(gè)多月,在2023年2月初就研發(fā)出了第一代ChatGLM,是國(guó)內(nèi)最早可以線上測(cè)試使用的千億級(jí)對(duì)話模型;同年8月基于ChatGLM開(kāi)發(fā)的智譜清言通過(guò)國(guó)家第一批《生成式人工智能服務(wù)管理暫行辦法》備案認(rèn)證,正式面向公眾上線使用。隨后,全國(guó)多個(gè)產(chǎn)業(yè)紛紛投身大模型:短期的做AI升級(jí),原來(lái)用分類(lèi)算法、小模型實(shí)現(xiàn)的開(kāi)始用大模型替代;中期的開(kāi)始研究自己的定制化大模型。于是各種領(lǐng)域大模型(例如數(shù)學(xué)大模型、化學(xué)大模型、醫(yī)療大模型等)以及基于已有算法框架訓(xùn)練注入不同數(shù)據(jù)訓(xùn)練出的各種模型紛紛推出,一時(shí)間形成了“百模大戰(zhàn)”的情形。僅此一年,據(jù)不完全統(tǒng)計(jì),全國(guó)實(shí)現(xiàn)大模型初步應(yīng)用的企業(yè)和部門(mén)有數(shù)千個(gè)。2023年是大模型產(chǎn)業(yè)落地元一個(gè)插曲是2023年3月14日這天(大模型里程碑日就像事先約好了一樣,OpenAI發(fā)布了效果再次遙遙領(lǐng)先的GPT-4模型,Anthropic發(fā)布了對(duì)標(biāo)ChatGPT的Claude,谷歌推出對(duì)抗OpenAI和微軟組合的PaLMAPI服務(wù)(Bard),我們開(kāi)源了ChatGLM-6B,斯坦福大學(xué)發(fā)布Alpaca,Midjourney發(fā)布V5。其中,ChatGLM-6B三個(gè)版本的全球下載量超過(guò)1300萬(wàn),在GitHub上總計(jì)星標(biāo)數(shù)達(dá)到6萬(wàn),超過(guò)Meta的LLaMA兩個(gè)版本總和;團(tuán)隊(duì)也是GitHub公布的星標(biāo)數(shù)超過(guò)500、大模型開(kāi)源項(xiàng)目數(shù)最多的五個(gè)科研機(jī)構(gòu)之一(前四分別是:OpenAI、微軟、HuggingFace、谷歌)。2023年筆者團(tuán)隊(duì)也有幸獲HuggingFace全球最受歡迎的開(kāi)源機(jī)構(gòu)第五名,超過(guò)OpenAI、谷歌、微軟,也是國(guó)內(nèi)唯一上榜的機(jī)構(gòu)。更加值得高興和欣慰的是,我們發(fā)現(xiàn)開(kāi)發(fā)者在這些開(kāi)源模型上,開(kāi)發(fā)出了700多項(xiàng)優(yōu)秀的大模型開(kāi)源項(xiàng)目,這也堅(jiān)定了我們要圍繞開(kāi)發(fā)者繼續(xù)研發(fā)新一代大模型、建立大模型生態(tài)的決心。2023年3月14日這一天,所有大模型的研究者、產(chǎn)業(yè)工程師們都在社交媒體(Twitter等)上歡呼,大模型里程碑日來(lái)了。時(shí)至今日,那天發(fā)布出來(lái)的模型都是經(jīng)典中的經(jīng)典。AGI元年(2024)。OpenAI在2024年初推出了文本到視頻生成模型Sora,這應(yīng)該是目前最好的視頻生成模型。Sora能夠生成一分鐘的高精度視頻。更重要的是,這讓大家看到也許這是構(gòu)建物理世界通用模型的可能路徑。Sora的主要技術(shù)思路是用視覺(jué)塊編碼(VisualPatch)的方式,把不同格式的視頻進(jìn)行統(tǒng)一編碼,然后用Transformer架構(gòu)進(jìn)行訓(xùn)練,并引入類(lèi)似Diffusion的Unet方式在降維和升維的過(guò)程中做加噪和去噪。Sora技術(shù)報(bào)告提到是一個(gè)DiffusionTransformer架構(gòu),但筆者團(tuán)隊(duì)曾經(jīng)測(cè)試發(fā)現(xiàn)該架構(gòu)與Unet相比有一定差距,因此OpenAI可能在這方面做了較大的改進(jìn)。此外,OpenAI極有可能在2024年推出下一代模型GPT-5,也許會(huì)有全新的代號(hào),無(wú)論如何比較肯定的是其認(rèn)知能力將帶來(lái)通用人工智能的再一次變革。其下一代模型在技術(shù)上可能解決目前ChatGPT中存在的事實(shí)性以及推理能力的缺陷,實(shí)現(xiàn)更精細(xì)的語(yǔ)義理解、多模態(tài)(文本、圖像、語(yǔ)音、視頻等)輸入和輸出,具備更強(qiáng)的個(gè)性化能力。此外人工智能的發(fā)展會(huì)更多瞄向通用人工智能,實(shí)現(xiàn)AI的自我解釋、自我評(píng)測(cè)和自我監(jiān)督,構(gòu)建超過(guò)人類(lèi)水平的超級(jí)認(rèn)知智能(superintelligence),并且確保模型的表現(xiàn)符合人類(lèi)的價(jià)值觀和安全標(biāo)準(zhǔn)。2023年7月,OpenAI公布了由其首席科學(xué)家伊利亞·蘇茨克維(IlyaSutskever)和首席強(qiáng)化學(xué)習(xí)專家詹·雷克(JanLeike)發(fā)起的超級(jí)對(duì)齊計(jì)劃(Superalignment),目標(biāo)就是實(shí)現(xiàn)機(jī)器自動(dòng)對(duì)齊人類(lèi)智能和人類(lèi)價(jià)值觀,實(shí)現(xiàn)模型的自我反思和自我監(jiān)控。相信在2024年會(huì)有更多研究者加入到通用人工智能和超級(jí)認(rèn)知智能的研究中。GLM-4大模型經(jīng)過(guò)預(yù)訓(xùn)練后可以獲得語(yǔ)言生成、世界知識(shí)、上下文學(xué)習(xí)(in-contextlearning)、代碼理解/生成、復(fù)雜推理/思維鏈等能力。OpenAI的GPT系列模型歷經(jīng)三個(gè)主要階段,形成了目前ChatGPT的對(duì)話能力。第一個(gè)階段是2018~2020年,OpenAI每年發(fā)布一個(gè)基座模型版本,直到2020年的千億基座模型GPT-3,其基礎(chǔ)的語(yǔ)言生成能力和零樣本泛化能力大大增強(qiáng)。第二個(gè)階段是指令微調(diào),旨在提升模型在各項(xiàng)任務(wù)上的泛化能力,要求指令種類(lèi)足夠多,每種指令的例子也要足夠多。指令的指數(shù)級(jí)增長(zhǎng)會(huì)帶來(lái)跨域遷移能力的線性增長(zhǎng)。單個(gè)指令下實(shí)例數(shù)的指數(shù)級(jí)增長(zhǎng)也會(huì)帶來(lái)該指令能力的線性增長(zhǎng),但也可能使其他指令的能力弱化,因此組合泛化能力尤為重要。例如,給定的指令同時(shí)包含摘要、問(wèn)答、生成代碼的指令,模型可以自動(dòng)將這三項(xiàng)能力混合在一起,同時(shí)完成問(wèn)答、摘要生成、代碼生成的任務(wù)??梢詫⒅噶钜暈榫€性代數(shù)中的一組基,將不同能力混合在一起實(shí)際上就是對(duì)線性空間中的基做線性組合或凸組合。模型在沒(méi)有見(jiàn)過(guò)指令時(shí),只能在學(xué)到的空間內(nèi)做插值,而很難外推到?jīng)]有學(xué)習(xí)到的基上。第三個(gè)階段是人類(lèi)反饋的強(qiáng)化學(xué)習(xí),這是根據(jù)用戶反饋通過(guò)強(qiáng)化學(xué)習(xí)優(yōu)化模型輸出。在ChatGPT之后,OpenAI又增強(qiáng)了GPT-4的多模態(tài)能力,并通過(guò)增強(qiáng)智能體(agent)能力實(shí)現(xiàn)了應(yīng)用商店GPTs。筆者團(tuán)隊(duì)在2020年提出GLM算法框架,從那時(shí)起,我們就希望GLM能成為與OpenAI的GPT對(duì)標(biāo)的技術(shù)體系。2022年我們發(fā)布了GLM-130B千億基座模型,2023年連續(xù)發(fā)布了三個(gè)對(duì)話模型ChatGLM、ChatGLM2、ChatGLM3。2024年1月16日,我們公布了最新的GLM-4,將基座模型和對(duì)話模型統(tǒng)一了起來(lái)。相比ChatGLM3,GLM-4的性能大大提升,接近GPT-4;支持更長(zhǎng)上下文(128K支持更強(qiáng)的多模態(tài)能力;支持更快的推理速度、更多的并發(fā),大大降低推理成本;同時(shí)GLM-4增強(qiáng)了智能體能力。圖1展示了GPT系列模型和GLM系列模型的演進(jìn)歷圖1GPT系列模型與GLM系列模型對(duì)比GLM基礎(chǔ)能力我們對(duì)GPT-4和GLM-4在若干數(shù)據(jù)集上進(jìn)行了全面的測(cè)試分析。表1列出了在國(guó)際通用英文數(shù)據(jù)集上的評(píng)測(cè)結(jié)果。第一個(gè)數(shù)據(jù)集MMLU是大規(guī)模多任務(wù)語(yǔ)言理解的基準(zhǔn),主要評(píng)估模型的零樣本(zero-shot)和少樣本(few-shot)學(xué)習(xí)能力。該基準(zhǔn)涵蓋STEM(科學(xué)、技術(shù)、工程、數(shù)學(xué))、人文科學(xué)、社會(huì)科學(xué)等57個(gè)科目。它的難度從初級(jí)到高級(jí)專業(yè)水平不等,考驗(yàn)?zāi)P驼莆帐澜缰R(shí)和解決問(wèn)題的能力??颇糠秶w從傳統(tǒng)領(lǐng)域(如數(shù)學(xué)和歷史)到更專業(yè)的領(lǐng)域(如法律和道德)。GSM8K是一個(gè)由8500個(gè)高質(zhì)量的語(yǔ)言多樣化的小學(xué)數(shù)學(xué)問(wèn)題組成的數(shù)據(jù)集,這些問(wèn)題都是由人類(lèi)寫(xiě)手創(chuàng)造的。MATH數(shù)據(jù)集則包含初等代數(shù)、代數(shù)、數(shù)論、計(jì)數(shù)和概率、幾何、中等代數(shù)和微積分等領(lǐng)域的多種數(shù)學(xué)問(wèn)題,是用LaTeX寫(xiě)的,也就是說(shuō)并不全是自然語(yǔ)言,而有點(diǎn)像代碼閱讀。BBH是谷歌推出的一個(gè)面向推理的基準(zhǔn)測(cè)試套件,涵蓋了各種AI復(fù)雜任務(wù),可以評(píng)估語(yǔ)言模型在各種復(fù)雜任務(wù)上的性能。HellaSwag是一個(gè)用于評(píng)估自然語(yǔ)言處理模型在常識(shí)推理方面表現(xiàn)的基準(zhǔn)測(cè)試集,由OpenAI團(tuán)隊(duì)開(kāi)發(fā),旨在測(cè)試模型解決具有誤導(dǎo)性的場(chǎng)景推理問(wèn)題的能力。它包含70000個(gè)多項(xiàng)選擇問(wèn)題,每個(gè)問(wèn)題都涉及兩個(gè)具體領(lǐng)域的場(chǎng)景。這些問(wèn)題偽裝成可能令人產(chǎn)生錯(cuò)覺(jué)的正確答案,目的是測(cè)試模型的常識(shí)推理能力。在這些數(shù)據(jù)集上,總體來(lái)說(shuō)GLM-4接近GPT-4。表1基礎(chǔ)能力評(píng)測(cè)(英文)GLM中文對(duì)齊能力在模型實(shí)際應(yīng)用過(guò)程中,我們更注重中文的對(duì)齊能力。表2列出了GLM和GPT在中文對(duì)齊能力方面的評(píng)測(cè)對(duì)比。數(shù)據(jù)集使用的是AlignBench。在AlignBench上,GLM-4甚至超過(guò)了在2023年6月13日發(fā)布的GPT-4,逼近GPT-4Turbo(GPT-4最新版本,2023年11月6日發(fā)布)的效果,尤其是在專業(yè)能力、中文理解、角色扮演方面甚至超過(guò)GPT-4Turbo的精度,但在中文推理方面的能力還有待進(jìn)一步提升。表2對(duì)齊能力(中文,數(shù)據(jù)集:AlignBench)GLM長(zhǎng)文本能力GLM-4支持更長(zhǎng)上下文窗口能力(128K表3對(duì)比了GLM-4和國(guó)際上效果最好的幾個(gè)模型,包括OpenAI的GPT-4和Anthropic的Claude2.1。可以看出GLM-4的效果超過(guò)了GPT-4和Claude2.1,接近GPT-4Turbo。在大海撈針(NeedleTest)測(cè)試中,在128K文本長(zhǎng)度內(nèi),GLM-4模型均可做到幾乎百分之百的召回精度(見(jiàn)圖2基本解決了長(zhǎng)上下文全局信息因?yàn)槭Ы苟鴮?dǎo)致的精度下降問(wèn)題。也就是說(shuō),單次提示詞可以處理的文本可以達(dá)到300頁(yè),開(kāi)發(fā)者再也不用擔(dān)心文檔太長(zhǎng)而無(wú)法一次性處理完了。最重要的是,這個(gè)技術(shù)可以比較容易地?cái)U(kuò)展到1M甚至無(wú)限長(zhǎng)上下文,例如谷歌最近推出的無(wú)限長(zhǎng)上下文Transformer。表3長(zhǎng)上下文能力評(píng)測(cè)(中文,數(shù)據(jù)集:LongBench、NeedleTest)圖2NeedleTest(128K),全綠表示100%召回精度GLM多模態(tài)能力GLM-4內(nèi)嵌了CogView3。CogView是我們從2021年開(kāi)始研發(fā)的文生圖系列模型,目前已經(jīng)推出CogView、CogView2和CogView3三個(gè)版本,幾乎是和DALL·E的系列模型同期推出。表4列出了CogView3和SDXL、DALL·E3的對(duì)比情況??梢钥闯觯诟黜?xiàng)指標(biāo)上,CogView3都明顯超過(guò)開(kāi)源最佳的SDXL,與OpenAI最新發(fā)布的DALL·E3相當(dāng),在對(duì)齊、保真、安全、組合&布局等各個(gè)評(píng)測(cè)維度上,CogView3的效果能達(dá)到DALL·E3的90%以上。表4文生圖性能評(píng)測(cè)(SDXL是開(kāi)源最佳模型)GLM智能體能力GLM-4還有一個(gè)全新的功能——AllTools。傳統(tǒng)的大模型系統(tǒng)只能用大模型的某一個(gè)功能,或者使用提示詞激活某個(gè)方面的能力。AllTools基于GLM模型的智能體能力,實(shí)現(xiàn)根據(jù)用戶意圖,自動(dòng)理解、規(guī)劃復(fù)雜指令,自由調(diào)用網(wǎng)頁(yè)瀏覽器、代碼解釋器(codeinterpreter)和多模態(tài)文生圖大模型,以完成復(fù)雜任務(wù)。類(lèi)似于OpenAI近期推出的GPTs的基礎(chǔ)能力,只需一個(gè)指令,GLM-4就會(huì)自動(dòng)分析指令,結(jié)合上下文選擇要調(diào)用的合適工具。表5給出了GLM-4和GPT-4的AllTools性能對(duì)比:通過(guò)自動(dòng)調(diào)用Python解釋器進(jìn)行復(fù)雜計(jì)算(復(fù)雜方程、微積分等在GSM8K、MATH、Math23K三個(gè)數(shù)據(jù)集上,GLM-4均能取得與GPT-4相當(dāng)?shù)男Ч?。其中Math23K是一個(gè)用于研究機(jī)器自動(dòng)解數(shù)學(xué)應(yīng)用題的數(shù)據(jù)集,包含23162道小學(xué)數(shù)學(xué)應(yīng)用題及其解題公式,可被用來(lái)檢驗(yàn)大模型對(duì)數(shù)字的理解能力。表5GLM-4和GPT-4的AllTools對(duì)比:代碼解釋器表6給出了GLM-4和GPT-4在網(wǎng)頁(yè)自動(dòng)瀏覽以及函數(shù)自動(dòng)調(diào)用方面的性能對(duì)比。網(wǎng)頁(yè)自動(dòng)瀏覽是指模型自行規(guī)劃?rùn)z索任務(wù)、自行選擇信息源并自動(dòng)與信息源進(jìn)行交互。函數(shù)調(diào)用是根據(jù)用戶提供的函數(shù)描述,模型自動(dòng)選擇所需函數(shù)并生成參數(shù),以及根據(jù)函數(shù)的返回值生成回復(fù)。GLM-4支持針對(duì)一次輸入進(jìn)行多次函數(shù)調(diào)用,并支持包含中文及特殊符號(hào)的函數(shù)名字。表6GLM-4和GPT-4的AllTools對(duì)比:網(wǎng)頁(yè)瀏覽(左)和函數(shù)調(diào)用(右)圖3展示了一個(gè)例子,問(wèn)題是“查詢一下全球近年的GDP。分析這些數(shù)據(jù)中哪些年份GDP下降了,畫(huà)折線圖并將下降的年份標(biāo)紅”??梢钥吹紾LM-4首先自行決定調(diào)用搜索,從網(wǎng)頁(yè)中找到全球GDP數(shù)據(jù),然后選擇編寫(xiě)程序?qū)崿F(xiàn)GDP數(shù)據(jù)的曲線統(tǒng)計(jì),通過(guò)解讀“對(duì)下降年份標(biāo)紅”,在程序中設(shè)置了兩種不同的標(biāo)記方式并畫(huà)出曲線圖,最后給出了對(duì)曲線圖的解讀??梢钥闯鯣LM-4已經(jīng)實(shí)現(xiàn)了自動(dòng)將多個(gè)工具無(wú)縫整合使用。圖3GLM-4AllTools案例:“查詢一下全球近年的GDP。分析這些數(shù)據(jù)中哪些年份GDP下降了,畫(huà)折線圖并將下降的年份標(biāo)紅”在智能體能力和AllTools工具的支持下,GLM-4實(shí)現(xiàn)了GLMs模型應(yīng)用商店。截至2024年4月20日,已經(jīng)有20多萬(wàn)應(yīng)用在GLMs登陸。訪問(wèn)量最高的智能體應(yīng)用每天支持?jǐn)?shù)萬(wàn)用戶訪問(wèn)。GLM-4智能體使任何人都能夠運(yùn)用GLM-4模型并挖掘它的潛力,沒(méi)有任何編程基礎(chǔ)也能夠?qū)崿F(xiàn)大模型應(yīng)用的開(kāi)發(fā)。關(guān)于AGI的一點(diǎn)思考當(dāng)前AGI的研究還面臨很多挑戰(zhàn),很多基礎(chǔ)理論問(wèn)題尚未得到根本解決,包括:1.未來(lái)AGI之路在哪里?是多模態(tài)預(yù)訓(xùn)練模型還是用大模型實(shí)現(xiàn)智能的操作系統(tǒng)?2.如何實(shí)現(xiàn)超級(jí)對(duì)齊?從更理論的角度,也許AGI也需要參考人腦智能的實(shí)現(xiàn)機(jī)理。3.如何實(shí)現(xiàn)更高效的訓(xùn)練,擺脫現(xiàn)在依賴英偉達(dá)的GPU路線?能否統(tǒng)一芯片和模型算法,實(shí)現(xiàn)更加高效的模型訓(xùn)練?筆者團(tuán)隊(duì)針對(duì)以上三個(gè)挑戰(zhàn),圍繞超級(jí)智能和超級(jí)對(duì)齊,融合軟件和硬件展開(kāi)相關(guān)AGI研究。未來(lái)AGI之路在哪里?這可能是所有做大模型研究的學(xué)者不斷思考的事情。筆者有幸在大模型“熱”起來(lái)之前和學(xué)術(shù)界、產(chǎn)業(yè)界的研究者一起組織了多次CCF啟智會(huì),現(xiàn)在回顧,確實(shí)在過(guò)去幾年誕生了若干精妙的思想和技術(shù)。同時(shí)也要看到,在美國(guó),OpenAI、GoogleDeepMind、Anthropic、Meta、xAI、斯坦福等公司和科研機(jī)構(gòu)基本上形成了國(guó)際頂尖的大模型團(tuán)隊(duì),這源于它們對(duì)創(chuàng)新型頂尖人才的匯聚,以及對(duì)基于大模型的AGI之路的執(zhí)著和技術(shù)積累。OpenAI曾經(jīng)在看不到前景和沒(méi)有明顯效果的階段(2018~2021年),仍然堅(jiān)定地投入大量人力和算力,這種長(zhǎng)期的堅(jiān)持和純粹的創(chuàng)新精神是成功的必要條件。AGI是否能夠通過(guò)大模型的縮放定律(ScalingLaws)來(lái)實(shí)現(xiàn)?縮放定律描述了大模型性能與其參數(shù)量、數(shù)據(jù)規(guī)模、計(jì)算量之間的關(guān)系。雖然備受質(zhì)疑,但直到今天,可能高質(zhì)量的縮放仍然是提高大模型性能的重要方法。一方面,這幾個(gè)因素相互關(guān)聯(lián),參數(shù)量更大的語(yǔ)言模型需要更多的高質(zhì)量數(shù)據(jù)和訓(xùn)練量,以兼顧文本理解和生成任務(wù)上的規(guī)模擴(kuò)展效果。另一方面,多模態(tài)超大規(guī)模預(yù)訓(xùn)練模型的興起,要求模型算法具備在多模態(tài)數(shù)據(jù)(如圖片、視頻)輸入輸出條件下的規(guī)模擴(kuò)展。這就要求在模型架構(gòu)、訓(xùn)練算法、人類(lèi)意圖對(duì)齊等方法上不斷創(chuàng)新。此外,從理論的角度,AGI也需要參考人腦智能的實(shí)現(xiàn)機(jī)理。基于大模型的AGI或者說(shuō)機(jī)器智能不一定要和人腦認(rèn)知的機(jī)理一樣,但剖析人腦的工作機(jī)理也許可以更好地啟發(fā)AGI的實(shí)現(xiàn)。人腦是一個(gè)復(fù)雜系統(tǒng),枕葉中視覺(jué)腦區(qū)負(fù)責(zé)視覺(jué)理解、韋尼克區(qū)負(fù)責(zé)聽(tīng)覺(jué)語(yǔ)言理解、頂下小葉角回負(fù)責(zé)視覺(jué)語(yǔ)言理解;海馬區(qū)、蛋白質(zhì)磷酸修飾、長(zhǎng)時(shí)程增強(qiáng)、新蛋白產(chǎn)生分別負(fù)責(zé)學(xué)習(xí)和短期/中期/長(zhǎng)期記憶的形成;前額葉則負(fù)責(zé)工作記憶、規(guī)劃、規(guī)則學(xué)習(xí)和推理等復(fù)雜任務(wù)。各腦區(qū)相互配合完成人的復(fù)雜認(rèn)知功能。這些分析將有助于AGI的研究。新型原生多模態(tài)基座模型。在大模型基座方面,目前的大模型主要基于Transformer架構(gòu),有三種主流架構(gòu):編碼器(encoder-only,例如BERT)、編碼器-解碼器(encoder-decoder,例如T5),以及解碼器(decoder-only,例如GPT)。這幾個(gè)架構(gòu)都是國(guó)外設(shè)計(jì)并流行起來(lái)的,OpenAI把解碼器發(fā)揮到了極致,Meta則將其開(kāi)源引發(fā)全球技術(shù)跟隨。國(guó)內(nèi)在原始創(chuàng)新和自主研發(fā)方面嚴(yán)重欠缺。清華大學(xué)和智譜AI結(jié)合了BERT和GPT的優(yōu)勢(shì),設(shè)計(jì)了GLM架構(gòu)。但如何從本質(zhì)上改進(jìn)預(yù)訓(xùn)練模型的基座能力,實(shí)現(xiàn)Transformer架構(gòu)上的顛覆式創(chuàng)新還存在巨大挑戰(zhàn)。另外,以GPT-4為代表的一系列語(yǔ)言模型基于互聯(lián)網(wǎng)上海量的文本語(yǔ)料進(jìn)行預(yù)訓(xùn)練,在語(yǔ)義理解、指令遵循等方面展現(xiàn)出了驚人的能力。然而,這些語(yǔ)言模型只能以文本形式處理內(nèi)容,并無(wú)法處理圖片等其他模態(tài)的信息。形如GPT-4V等視覺(jué)文本多模態(tài)模型通過(guò)一個(gè)視覺(jué)編碼器(VisionEncoder)和語(yǔ)言模型建立連接,使得模型初步具備一定的圖片理解能力,但這種文本視覺(jué)的交互仍然處于淺層。如何利用好互聯(lián)網(wǎng)上海量的多模態(tài)語(yǔ)料(圖片、音頻、視頻)進(jìn)行大規(guī)模訓(xùn)練仍然具有挑戰(zhàn)。原生多模態(tài)基座模型(MultimodalFoundationModels)通過(guò)在同一預(yù)訓(xùn)練過(guò)程中整合來(lái)自不同模態(tài)的數(shù)據(jù),能從多個(gè)維度建模世界知識(shí),不同模態(tài)的信息相互幫助,從而大大提升模型的理解能力,為下游應(yīng)用打開(kāi)了更廣泛的想象空間。超級(jí)對(duì)齊。OpenAI的研究者聲稱已經(jīng)掌握實(shí)現(xiàn)通用人工智能的關(guān)鍵技術(shù)。GPT-5.0很可能會(huì)解決目前ChatGPT中存在的事實(shí)性以及復(fù)雜推理方面的缺陷;也可能會(huì)采用更高效的算法和更先進(jìn)的計(jì)算架構(gòu),實(shí)現(xiàn)更大的模型容量和更強(qiáng)的泛化能力(如自動(dòng)實(shí)現(xiàn)對(duì)低資源語(yǔ)言的支持,以更好地滿足非英語(yǔ)用戶的需求具有更快的計(jì)算速度和更大的模型容量。未來(lái)實(shí)現(xiàn)超級(jí)智能的大模型將在人類(lèi)面對(duì)的考試、工作、生活等若干方面超越人類(lèi)智能,甚至在未來(lái)的知識(shí)創(chuàng)新方面達(dá)到或超過(guò)人類(lèi)水平,實(shí)現(xiàn)超級(jí)智能。超級(jí)智能將是人類(lèi)發(fā)明的最具影響力的技術(shù),并可能幫助我們解決世界上許多重要的問(wèn)題。但是超級(jí)智能的巨大力量也可能產(chǎn)生一些危害。因此,模型學(xué)習(xí)的時(shí)候需要過(guò)濾掉包含極端觀點(diǎn)、誤導(dǎo)性信息和令人反感的內(nèi)容的文本,讓模型糾正不合適的輸出,更好地了解人類(lèi)的價(jià)值觀、期望、意識(shí)形態(tài)和政治立場(chǎng)。雖然超級(jí)智能現(xiàn)在看似還很遙遠(yuǎn),但OpenAI于2023年7月發(fā)布了超級(jí)對(duì)齊計(jì)劃,認(rèn)為超級(jí)智能可能在未來(lái)十年到來(lái)。為了管理可能的風(fēng)險(xiǎn),我們將需要新形式的治理機(jī)構(gòu),并解決超級(jí)智能對(duì)齊問(wèn)題。比如:我們?nèi)绾未_保比人類(lèi)聰明得多的AI系統(tǒng)遵循人類(lèi)意圖?目前,對(duì)于可能具有超級(jí)智能的AI,我們尚無(wú)解決方案來(lái)指導(dǎo)或控制它,以防止它變得不可控。目前用于對(duì)齊AI的技術(shù),依賴于人類(lèi)監(jiān)督AI的能力,但當(dāng)前的AI對(duì)齊技術(shù)無(wú)法擴(kuò)展到超級(jí)智能,需要全新的、顛覆式的科學(xué)和技術(shù)突破。一個(gè)可能的方法是建立一個(gè)與人類(lèi)水平相當(dāng)?shù)淖詣?dòng)對(duì)齊系統(tǒng),讓AI能夠自己判斷自己的行為和輸出。這不僅需要設(shè)計(jì)全新的算法實(shí)現(xiàn)可擴(kuò)展訓(xùn)練、自動(dòng)模型結(jié)果驗(yàn)證、自動(dòng)對(duì)超級(jí)對(duì)齊結(jié)果進(jìn)行評(píng)估,同時(shí)還需要超大規(guī)模的算力迭代實(shí)現(xiàn)超級(jí)智能對(duì)齊。大模型操作系統(tǒng)。隨著大規(guī)模語(yǔ)言模型的興起,基于語(yǔ)言模型的智能體系統(tǒng)逐漸嶄露頭角。形如AutoGPT、BabyAGI等系統(tǒng)能夠以語(yǔ)言模型為中樞,對(duì)任務(wù)進(jìn)行規(guī)劃(Planning),管理任務(wù)求解過(guò)程中的上下文(Memory),并配備相應(yīng)的工具插件(Tooluse),從而完成復(fù)雜的任務(wù)。然而,一方面受限于語(yǔ)言模型的基礎(chǔ)能力,另一方面對(duì)復(fù)雜任務(wù)的規(guī)劃和記憶管理還處在初級(jí)階段,這類(lèi)系統(tǒng)往往只能解決一些簡(jiǎn)單任務(wù)。如何構(gòu)建一個(gè)通用的,針對(duì)復(fù)雜任務(wù)的Agent框架,使其具備規(guī)劃、記憶、工具使用等能力,同時(shí)能像人類(lèi)一樣與真實(shí)環(huán)境動(dòng)態(tài)交互,從行動(dòng)中“反思”(Reflection)和進(jìn)步,是進(jìn)一步提升當(dāng)前人工智能水平的必經(jīng)之路。基于基礎(chǔ)大模型在數(shù)字與物理世界中探索和積累的經(jīng)驗(yàn),我們可以設(shè)計(jì)和開(kāi)發(fā)出真正意義的通用大模型智能體系統(tǒng)(GeneralAgentOS)。芯算一體大模型機(jī)。傳統(tǒng)的大模型研究思維一直是圍繞芯片進(jìn)行算法設(shè)計(jì),導(dǎo)致當(dāng)前所有大模型的基礎(chǔ)算法都只能在H100/A100類(lèi)似體系架構(gòu)上進(jìn)行設(shè)計(jì)與實(shí)現(xiàn)。芯算一體大模型機(jī)是一種將芯片(核心硬件)與算法(軟件)深度融合的下一代計(jì)算設(shè)備,目標(biāo)是實(shí)現(xiàn)超高算力、超大存儲(chǔ)以及優(yōu)化的數(shù)據(jù)處理能力,為人工智能、大數(shù)據(jù)分析、科學(xué)計(jì)算等高性能計(jì)算提供基礎(chǔ)支撐。大模型規(guī)模不斷擴(kuò)大,其對(duì)計(jì)算資源的需求也在急劇增加。傳統(tǒng)的CPU架構(gòu)在處理大規(guī)模并行

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論