版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
大型語言模型初學(xué)者指南第一部分供稿人:安娜馬萊·喬克林加姆·安庫爾·帕特爾沙尚克·維爾馬蒂芙尼·楊FoundationLanguageModelsvs.Fine-TunedLanguageMoEvolutionofLargeLanguageMHowEnterprisesCanBenefitFromUsingLargeLanguageModChallengesofLargeLanguagePopularStartup-developedLLM幾千年來,語言一直是人類社會(huì)不可或缺的一部分。一個(gè)長不管它最初出現(xiàn)在什么時(shí)候,語言仍然是人類交流的基石。在了更重要的角色,在這個(gè)時(shí)代,前所未有的一部分人可以通過文本和出明智的決定。例如,企業(yè)可以分析客戶評(píng)論等文本,以確定以幫助企業(yè)將品牌知名度提高到前所未有的程度,而撰寫電子郵件可以幫領(lǐng)導(dǎo)者經(jīng)常需要篩選大量的文本,以便做出明智的決策,而不是根據(jù)企業(yè)可以通過使用大型語言模型(LLM)來完成與語言相關(guān)的任其他問題,例如人為錯(cuò)誤的風(fēng)險(xiǎn)。LLMs可以幫分析相關(guān)的工作,節(jié)省寶貴的時(shí)間和資源,為了實(shí)現(xiàn)這些目標(biāo),本書分為三個(gè)部分:>第1部分定義了LLM,并概述了這>第2部分討論了LLM在企業(yè)中的五個(gè)主要用例,包括內(nèi)容生成、摘要和聊天機(jī)器人支持。每個(gè)用例都以現(xiàn)實(shí)生活中的應(yīng)用程序和案例研究為例,以展示LLM如何解決實(shí)際問希望這將激勵(lì)尚未采用或開發(fā)自己的物流管理系統(tǒng)的企業(yè)盡快這樣做,以便獲得競爭優(yōu)勢并提供新的SOTA服務(wù)或產(chǎn)品。和往常一樣,最大的好處將留給早期采用者或真正有遠(yuǎn)見的創(chuàng)新傳統(tǒng)的機(jī)器學(xué)習(xí)使用統(tǒng)計(jì)方法,根據(jù)大型標(biāo)本質(zhì)上屬于定性的數(shù)據(jù),如客戶評(píng)論,難以標(biāo)準(zhǔn)化。此類權(quán)重并根據(jù)期望的任務(wù)或數(shù)據(jù)對(duì)其進(jìn)行調(diào)整p-tuning,它通過在離散或真實(shí)令牌嵌入中插這些模型旨在理解文本的上下文和含義,并可以生成語法正確、語義GPT-3清楚地表明,大規(guī)模模型可以準(zhǔn)確地執(zhí)行從文這是對(duì)早期主要基于規(guī)則的模型的巨大改進(jìn),早期的模型既不能自主其他模型不同,LLM被認(rèn)為是大尺寸的,原因有兩個(gè):2.它們包括大量可學(xué)習(xí)的參數(shù)(即,幫助模型對(duì)英偉達(dá)模型:威震天-圖靈自然語言生成模由于模型的質(zhì)量在很大程度上取決于模型的大小和訓(xùn)練數(shù)據(jù)的大小,較大的語言模型通常例如,在同行評(píng)審的研究論文或出版的小說上接受客評(píng)論或其他未評(píng)審內(nèi)容上接受培訓(xùn)的法學(xué)碩士表現(xiàn)更好。像用戶生成的此外,模型需要非常多樣的數(shù)據(jù)來執(zhí)行各種NLP組特定的任務(wù),則使用更相關(guān)和更窄的數(shù)據(jù)集對(duì)其進(jìn)行微調(diào)。通過這樣個(gè)擅長在廣泛的領(lǐng)域中執(zhí)行各種NLP任務(wù)的模型大型語言模型初學(xué)者指南量數(shù)據(jù)的訓(xùn)練,可以執(zhí)行各種各樣的NLP任務(wù)種任務(wù)中都有很好的總體表現(xiàn),但可能不擅長執(zhí)行除了微調(diào)模型可以比基礎(chǔ)模型更好地執(zhí)行特定任務(wù)這一事實(shí)之外,它們最大的優(yōu)勢是它們更目前,最流行的方法是使用參數(shù)高效的定制技術(shù)來定制模型,比如p-tuningtuning、adapters等等。與微調(diào)整人工智能系統(tǒng)歷史上是關(guān)于處理和分析數(shù)據(jù),而不是產(chǎn)生數(shù)據(jù)。他周圍的世界,而不是產(chǎn)生新的信息。這一區(qū)別標(biāo)志著感知型和生成別,后者自2020年左右開始變得越來越普遍,或者在公司開始采用變壓器模型并大規(guī)模開發(fā)越大型語言模型的出現(xiàn)進(jìn)一步推動(dòng)了NLP模型出于這個(gè)目的,讓我們簡單地探討一下自然語言處理歷史上的三個(gè)階段模型來標(biāo)記的。這使得它們適用于不需要太多規(guī)則的簡單任務(wù),如文復(fù)雜的任務(wù),如機(jī)器翻譯?;谝?guī)則的模型在邊緣情況下也表現(xiàn)不佳有明確規(guī)則的前所未見的數(shù)據(jù)進(jìn)行準(zhǔn)確的預(yù)測或分類。這個(gè)問題在某模型能夠理解更長的數(shù)據(jù)序列,并執(zhí)行更廣泛的任務(wù)。然而,從今天的期開發(fā)的模型能力有限,主要是因?yàn)槠毡槿狈Υ笠?guī)模數(shù)據(jù)集和足夠的計(jì)要在該領(lǐng)域的研究人員和專家中引起了注意,但不是普通公眾,因?yàn)樗窃诖罅繑?shù)據(jù)的基礎(chǔ)上訓(xùn)練的,與以前的模型相比,這從一種方法到另一種方法的轉(zhuǎn)變?cè)诤艽蟪潭壬鲜怯上嚓P(guān)技術(shù)和絡(luò)、注意力機(jī)制和變壓器的出現(xiàn)以及無監(jiān)督和自我監(jiān)督學(xué)習(xí)領(lǐng)域的發(fā)神經(jīng)網(wǎng)絡(luò)(NNs)是模仿人腦的松散的機(jī)器學(xué)習(xí)算法。像生物人腦一樣,每個(gè)神經(jīng)網(wǎng)絡(luò)至少有三層:包括識(shí)別或分類數(shù)據(jù)、生成新數(shù)據(jù)以及其他位置和關(guān)系,即使它們?cè)跀?shù)據(jù)序列中相距很遠(yuǎn)。簡而言之,這意味著他住并考慮過去的數(shù)據(jù),從而為許多NLP任務(wù)提供更表示或特征是神經(jīng)網(wǎng)絡(luò)可以從數(shù)據(jù)中提取的隱藏模式。為了舉例說明這一正在一個(gè)數(shù)據(jù)集上訓(xùn)練一個(gè)基于神經(jīng)網(wǎng)絡(luò)的模型,該數(shù)據(jù)集包含以下令牌:在分析這些表征之后,該模型可以識(shí)別一種表示,人們可以將其公式化為:復(fù)數(shù)名詞有后綴“-s復(fù)數(shù)名詞有后綴“-s”前沒有遇到過它們。一旦遇到不符合提取的表示的不規(guī)則名詞,模型將更這種方法使基于神經(jīng)網(wǎng)絡(luò)的模型能夠比基于規(guī)則的系統(tǒng)更好地概括然而,他們提取表征的能力在很大程度上取決于神經(jīng)元的數(shù)量和組成有的神經(jīng)元越多,它們能夠提取的復(fù)雜表示就越多。這就是為什么今使用具有多個(gè)隱藏層的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò),從而雖然這在今天似乎是一個(gè)顯而易見的選擇,但GPU具有高度可并行化的架構(gòu),這使得今天看復(fù)雜的NLP任務(wù),如機(jī)器翻譯。它們的主要限制是確或無意義。隨著被稱為變壓器的新的特殊神經(jīng)網(wǎng)絡(luò)的出現(xiàn),這一挑戰(zhàn)和2017年,瓦斯瓦尼等人在一篇題為“你只需"我們提出了一種新的簡單的網(wǎng)絡(luò)結(jié)構(gòu),轉(zhuǎn)換器,完全積."-瓦斯瓦尼等人。艾爾,“你需要的只是關(guān)注”于機(jī)器翻譯。這個(gè)預(yù)言將很快成為現(xiàn)實(shí),因?yàn)樽冃谓饎倢⒗^續(xù)成為主注意機(jī)制通過允許模型在處理輸入時(shí)選擇性地注意輸入的某些部分,解為了演示這一點(diǎn),讓我們假設(shè)所需的模型是基于transformer的模型,用于預(yù)測以下輸入句子的下一個(gè)單詞:注意機(jī)制——或者更確切地說,是基于注意機(jī)制的自我注意層——將首單詞的注意權(quán)重。注意力權(quán)重代表每一個(gè)標(biāo)記的重要性,所以一個(gè)然后,該模型將使用這些權(quán)重在生成輸出時(shí)動(dòng)態(tài)地強(qiáng)調(diào)或淡化每個(gè)單分配給單詞“l(fā)amb”,則該模型可以產(chǎn)生如下延續(xù):2.如果一個(gè)令牌與其他令牌沒有太多關(guān)系,或者如讓我們探索LSTMs將如何處理我們的原始輸入句子:另一方面,轉(zhuǎn)換器并行處理數(shù)據(jù),這意味著它們一次“讀取”所有輸入令牌,而不是一次處理總是能夠分辨出哪個(gè)單詞先出現(xiàn),哪個(gè)先出現(xiàn),等等。他們知道輸入序按順序處理數(shù)據(jù)的。雖然乍一看這似乎只是一個(gè)小問題,但分析下面的題:句子(2)顯示了詞序的微小變化如何扭曲了預(yù)期的意思,而句子(3)為了克服這一挑戰(zhàn),變壓器使用位置編碼來幫助它們保留位置信關(guān)聯(lián)的附加輸入或向量。它們可以是固定的,也可以是可訓(xùn)練的,研究人員和公司將很快開始實(shí)施這些新機(jī)制,并建立新的基于變壓器的模型,谷歌將在2018一。這是一個(gè)掩蔽語言模型(MLM),這意味著它是在包含掩蔽標(biāo)記的要通過考慮其周圍環(huán)境來預(yù)測被屏蔽的令牌。為了說明這一點(diǎn),讓我下輸入句子:模型只能考慮屏蔽標(biāo)記左邊的上下文。在這種情況下,單向模型在預(yù)測屏蔽”,這提供了很少的上下文。單向模型產(chǎn)生正基于transformer的語言模型,旨在生成類似人類的文本并執(zhí)行各通過證明LLMs可以用于少量學(xué)習(xí)和excel而無需“大規(guī)模特定任務(wù)數(shù)據(jù)收集或模型參數(shù)更新”,GPT-3將激勵(lì)公司建立更大的模型,如具有5300億參數(shù)的威震天-圖靈自然語言生BERT不是革命性的,不僅因?yàn)樗且粋€(gè)雙向模型,還因例中,模型必須在訓(xùn)練期間自己從簡單語言的維基百科頁面中提取模式無監(jiān)督學(xué)習(xí)模型使用反饋循環(huán)來學(xué)習(xí)和提高它們的性能。這包括獲在培訓(xùn)期間獲得反饋。這些信號(hào)是根據(jù)數(shù)據(jù)自動(dòng)生成與監(jiān)督學(xué)習(xí)相比,無監(jiān)督和自我監(jiān)督學(xué)習(xí)技術(shù)都有一個(gè)關(guān)鍵優(yōu)和提取特征,而不需要人工干預(yù)。這有助于公司訓(xùn)練模型,而無需耗時(shí)的GPT(生成式預(yù)訓(xùn)練轉(zhuǎn)換器)和BERT(來自轉(zhuǎn)換器的雙向編碼器表示)都GPT是一個(gè)生成模型,它被訓(xùn)練成在給定前一個(gè)感分析、命名實(shí)體識(shí)別和文本分類。它是一個(gè)雙向模型,同時(shí)考慮句來理解單詞的意思,這使得它對(duì)于情感分析和問GPT和伯特都是強(qiáng)大的模型,徹底改變了自然語言處理模型,或由大型語言模型驅(qū)動(dòng)的應(yīng)用程序,可以幫助企業(yè)加速許多復(fù)雜的工代理更精確地執(zhí)行它們。例如,科技企業(yè)可以使用它們更快地編寫代們?cè)诜治鑫臋n以發(fā)現(xiàn)欺詐跡象時(shí)最大限度地自動(dòng)化復(fù)雜但通常繁瑣的任務(wù)進(jìn)一步允許員工專注于更重要的任務(wù),從而更快例如,我們將在第2部分中看到醫(yī)療保健企業(yè)如何使用LLMs來生成合成臨床數(shù)據(jù),并使用分析,為他們提供了關(guān)于受眾的更深入的見解,而客戶流失預(yù)測想要開始使用大型語言模型或者由大型語言模型支持的應(yīng)用程序的企業(yè)應(yīng)該注意一些常見的與LLM相關(guān)的陷阱。下面是一些通用的方法,不管模型是定制的、微調(diào)的還是從頭構(gòu)建的,這些2.大型語言模型可能缺乏可解釋性??山忉屝允堑偷哪P涂赡芎茈y進(jìn)行故障診斷和評(píng)估,因?yàn)榭赡懿磺宄麄兪侨邕@些決策有多準(zhǔn)確或公正。這在高風(fēng)險(xiǎn)用例(如欺詐檢測)和需要高出很好的響應(yīng),或者理解其背后的意圖。這可以通過人類反饋強(qiáng)化來改善,這種技術(shù)可以幫助模型根據(jù)正面或負(fù)面的人類反常是在大型互聯(lián)網(wǎng)文本語料庫上接受培訓(xùn)的,這可能使他們?nèi)菀椎钠髽I(yè)。由于這一過程非常耗時(shí),而且會(huì)耗盡資源,因此大多數(shù)定制現(xiàn)有基礎(chǔ)模型(也稱為預(yù)訓(xùn)練模型或PLM)通??煞譃槿齻€(gè)基本步驟:1.尋找合適的基礎(chǔ)模型(PLM)。2.微調(diào)模型。基本模型可以在特定語料庫上針對(duì)特3.優(yōu)化模型??梢允褂弥T如人類反饋強(qiáng)化學(xué)習(xí)(RLHF于對(duì)其預(yù)測或分類的正面或負(fù)面人類反饋來更它被廣泛用于流行的ChatGPT?;蛘?,企業(yè)可以選擇僅使用參數(shù)高效技術(shù)(如適配器和p-tuning)定制基本模型。當(dāng)基礎(chǔ)模型在類似于所選下游任務(wù)的任務(wù)上被訓(xùn)練時(shí),定制可以產(chǎn)生特別精確的模型。模型可能是定制情感分析的良好候選,因?yàn)檫@兩個(gè)任務(wù)非常相似。由于受模型可以利用它在訓(xùn)練期間獲得的知識(shí)來更容易地是一項(xiàng)簡單的任務(wù),它需要仔細(xì)分析不同的因素,如訓(xùn)練數(shù)據(jù)、另一個(gè)重要因素是模型的大小。通常,較大的模型具有更好算資源來訓(xùn)練和運(yùn)行。因此,研究人員通常根據(jù)具體任務(wù)和可用資源,在模進(jìn)行權(quán)衡。還值得注意的是,較大的模型往往更容易過度擬合,這可能導(dǎo)致自己的LLM的最著名的公司Table3.威震天-圖靈自然語言生成(MT-NLG元其中一些公司允許其他組織訪問他們的模型。例如,企業(yè)可以為下游任務(wù)定制由兩個(gè)月內(nèi)吸引了超過1億用戶,使其成為“歷史上增長最快的消費(fèi)應(yīng)用”這個(gè)領(lǐng)域。最受歡迎的應(yīng)用之一是LLM驅(qū)動(dòng)的內(nèi)容生成器,如Ja其他受歡迎的LLM驅(qū)動(dòng)的應(yīng)用程序包括廣受歡迎的語法檢查和編寫工具Grammarly和GitHubCopilot,這是一個(gè)由Codex驅(qū)動(dòng)的編碼助手,可以幫助開發(fā)人員編寫和學(xué)習(xí)代本文檔僅供參考,不得視為對(duì)產(chǎn)品特定功能、條件或質(zhì)量的保證。NVIDIACorporation(“NVIDIA”)對(duì)本文所含信息的準(zhǔn)確性或完整性不做任何明示或暗示的陳述或保證,也不對(duì)本文所含的任何錯(cuò)誤承擔(dān)任何責(zé)任。NVIDIA對(duì)此類信息的后果或使用不承擔(dān)任何責(zé)任,也不對(duì)使用此類信息可能導(dǎo)致的任何侵犯第三方專利或其他權(quán)利的行為承擔(dān)任何責(zé)任。本文檔并不承諾開發(fā)NVIDIA保留隨時(shí)對(duì)本文檔進(jìn)行更正、修改、增強(qiáng)、改進(jìn)和任何其他更改的權(quán)利,恕不另行通知??蛻魬?yīng)在下訂單前獲取最新的相關(guān)信息,并應(yīng)驗(yàn)證這NVIDIA產(chǎn)品的銷售受訂單確認(rèn)時(shí)提供的NVIDIA標(biāo)準(zhǔn)銷售條款和條件的約束,除非NVIDIA授權(quán)代表和客戶簽署的單獨(dú)銷售協(xié)議中另有約定(“銷售條NVIDIA產(chǎn)品的設(shè)計(jì)、授權(quán)或擔(dān)保不適用于醫(yī)療、軍事、飛機(jī)、太空或生命支持設(shè)備,也不適用于NVIDIA境損害的應(yīng)用。NVIDIA對(duì)在此類設(shè)備或應(yīng)用中包含和/或使用NVIDIA產(chǎn)品不承擔(dān)任何責(zé)任,因此NVIDIA不表示或保證基于本文檔的產(chǎn)品將適用于任何指定用途。NVIDIA不一定要對(duì)每個(gè)產(chǎn)品的所有參數(shù)進(jìn)行測試。客戶全權(quán)負(fù)責(zé)評(píng)估和確定本文檔中包含的任何信息的適用性,確保產(chǎn)品適合客戶計(jì)劃的應(yīng)用,并對(duì)應(yīng)用進(jìn)行必要的測試,以避免應(yīng)用或產(chǎn)品出現(xiàn)故障。客戶產(chǎn)品設(shè)計(jì)中的缺陷可能會(huì)影響NVIDIA產(chǎn)品的質(zhì)量和可靠性,并可能導(dǎo)致超出本文檔內(nèi)容的其他或不同的條件和/或要求。NVIDIA不承擔(dān)與任何違約、損害、成本或問題相關(guān)的責(zé)任,這些違約、損害、成本或問題可能基于或歸因于:(I)以任何違反本文檔的方式使用NVIDIA產(chǎn)根據(jù)本文檔,不授予任何NVIDIA專利權(quán)、版權(quán)或其他NVIDIA知識(shí)產(chǎn)權(quán)的許可,無論是明示的還是暗示的。NVIDIA發(fā)布的關(guān)于第三方產(chǎn)品或服務(wù)的信息不構(gòu)成NVIDIA使用此類產(chǎn)品或服務(wù)的許可,也不構(gòu)成其擔(dān)?;蛘J(rèn)可。使用這些信息可能需要根據(jù)第三方的專利或其他知識(shí)產(chǎn)權(quán)從第三方獲得許可,
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 建筑工程虛擬現(xiàn)實(shí)應(yīng)用方案
- 園林風(fēng)格公共衛(wèi)生間建設(shè)策略研究
- 2026屆安徽省黃山市屯溪區(qū)屯溪第一中學(xué)數(shù)學(xué)高一上期末綜合測試試題含解析
- 2026年成都市雙流區(qū)怡心第八幼兒園招聘備考題庫及一套答案詳解
- 2026年寧波廣慧傳媒科技有限公司招聘備考題庫及一套參考答案詳解
- 2026年廣東省農(nóng)業(yè)科學(xué)院作物研究所招聘科研助理人員備考題庫完整答案詳解
- 2026年NIBS趙詩杰實(shí)驗(yàn)室招聘實(shí)驗(yàn)技術(shù)員科研助理備考題庫帶答案詳解
- 2026年南京數(shù)智城科創(chuàng)發(fā)展有限公司公開招聘5人備考題庫及1套參考答案詳解
- 2026年東方經(jīng)濟(jì)開發(fā)區(qū)發(fā)展控股集團(tuán)有限公司招聘備考題庫含答案詳解
- 2026年山東省輕工業(yè)設(shè)計(jì)院有限公司公開招聘備考題庫參考答案詳解
- 民辦學(xué)校退費(fèi)管理制度
- T/CIE 115-2021電子元器件失效機(jī)理、模式及影響分析(FMMEA)通用方法和程序
- KubeBlocks把所有數(shù)據(jù)庫運(yùn)行到K8s上
- 廣東省江門市蓬江區(qū)2025年七年級(jí)上學(xué)期語文期末考試試卷及答案
- 蘇州市施工圖無障礙設(shè)計(jì)專篇參考樣式(試行)2025
- 等腰三角形重難點(diǎn)題型歸納(七大類型)原卷版-2024-2025學(xué)年北師大版八年級(jí)數(shù)學(xué)下冊(cè)重難點(diǎn)題型突破
- 臨時(shí)用電變壓器安裝方案
- 社會(huì)工作項(xiàng)目調(diào)研方案含問卷及訪談提綱
- 2025年包頭職業(yè)技術(shù)學(xué)院單招職業(yè)技能測試題庫完整版
- 全國高校輔導(dǎo)員素質(zhì)能力大賽試題(談心談話、案例分析)
- 《XXXX煤礦隱蔽致災(zāi)地質(zhì)因素普查報(bào)告》審查意見
評(píng)論
0/150
提交評(píng)論