ChatGPT在做什么為什么它能做到_第1頁
ChatGPT在做什么為什么它能做到_第2頁
ChatGPT在做什么為什么它能做到_第3頁
ChatGPT在做什么為什么它能做到_第4頁
ChatGPT在做什么為什么它能做到_第5頁
已閱讀5頁,還剩97頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

TableofContents前言 3 它只是一次添加一個(gè)單詞 4 人類式任務(wù)的模型 13神經(jīng)網(wǎng)絡(luò) 14機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 22神經(jīng)網(wǎng)絡(luò)訓(xùn)練的實(shí)踐和經(jīng)驗(yàn) 26 嵌入(Embeddings)的概念 32ChatGPT內(nèi)部 36ChatGPT的訓(xùn)練 42除了基本的訓(xùn)練之外 43 意義空間與語義運(yùn)動(dòng)規(guī)律 48語義語法和計(jì)算語言的力量 52 感謝 55Wolfram|Alpha是將計(jì)算知識(shí)超能力帶給ChatGPT的途徑 56ChatGPT和Wolfram|Alpha 56一個(gè)基本的例子 57更多例子 59未來之路 69AdditionalResources 72Onlinelinktoallresources: 722023年2月28日前言是一部關(guān)于科學(xué)和哲學(xué)的故事。為了講述這個(gè)故事,我們必須匯集數(shù)許多驚人的思想和發(fā)現(xiàn)。期以來感興趣的許多事情在突然的進(jìn)步中匯聚在一起是令人興奮言和意義的核心特征,以及大型計(jì)算機(jī)系統(tǒng)的實(shí)際應(yīng)ChatGPT基于神經(jīng)網(wǎng)絡(luò)的概念,神經(jīng)網(wǎng)絡(luò)最初是在1940年代作為大腦運(yùn)作的理想化有做任何有趣的事情。進(jìn)行神經(jīng)網(wǎng)絡(luò)能夠生成有意義的人類語言,這曾被認(rèn)為是獨(dú)特的人類特征。括我在ChatGPT發(fā)布后不久寫的兩篇文章。第一篇是關(guān)于ChatGPT及其生成PT已經(jīng)發(fā)明和發(fā)現(xiàn)了所有東西之后,仍然有可能出現(xiàn)意外。ChatGPT在做什么...為什么它能做到?它只是一次添加一個(gè)單詞ChatGPT內(nèi)部正在發(fā)生的事情,然后探索為什么它能夠很好地產(chǎn)生文本。我,我將重點(diǎn)關(guān)注正在發(fā)生的大局面,并且雖然我會(huì)提及一些工程細(xì)節(jié),但我不會(huì)深入探討它們。(而我將要說的實(shí)質(zhì)內(nèi)容同樣適用于其他當(dāng)前的“大型語言模型”LLMChatGPT。)看到人們?cè)跀?shù)十億個(gè)網(wǎng)頁上寫了什么后,人們可能期望某人寫下什么”。假設(shè)我們有文本“AI最好的事情是它的能力...”。想象一下掃描數(shù)十億頁人類編寫的文本(例如網(wǎng)絡(luò)上和數(shù)字化的書籍),找到所有這種文本的實(shí)例,然后看看接下來的單詞ChatGPT事情,除了(如我將解釋的那樣)它;它尋找在某種意義上“匹配”的東西。但最終結(jié)果是,它會(huì)生成一個(gè)可能表,以及“概率”:原因。)中,它都會(huì)得到一個(gè)具有概率的單詞列表。但它應(yīng)該選擇哪個(gè)單詞添加到它正在編寫的文章(或其他內(nèi)容)中呢?有人可能認(rèn)為應(yīng)該選擇“排名最高”的單詞 (即被賦予最高“概率”的單詞)。但是這里開始涉及到一些迷信。因?yàn)槌鲇谀撤N原因(也許有一天我們會(huì)以科學(xué)的方式理解),如果我們總是選擇排名最高的單詞,我們通常會(huì)得到一個(gè)非?!捌降钡奈恼拢雌饋韽奈础罢故救魏蝿?chuàng)造力”(甚至有時(shí)會(huì)逐字重復(fù))。但排名較低的單詞,我們會(huì)得到一個(gè)“更有趣”的文章。0.8是最好的選擇。(值得強(qiáng)調(diào)分布時(shí),統(tǒng)計(jì)物理學(xué)中熟悉的概念恰好被使用了,但我們至少目前道有什么“物理學(xué)”聯(lián)系。)該解釋一下,為了說明方便,我大多數(shù)情況下不會(huì)使用桌面計(jì)算機(jī)上運(yùn)行。因此,對(duì)于我展示的所有內(nèi)容,我都能夠包含明確的Wolfram語言代碼,您可以立即在計(jì)算機(jī)上運(yùn)行。(單擊此處的任何圖片即可復(fù)制的代碼。)何獲取上面的概率表格。首先,我們必須檢索底層的“語言模型”神經(jīng)網(wǎng)型”應(yīng)用為黑盒子來處理我們迄今為止的文本,并詢問模型認(rèn)為應(yīng)該跟隨的 式化的“數(shù)據(jù)集”:高概率的單詞。 但是,如果不總是選擇“頂部”單詞,而是有時(shí)隨機(jī)選擇“非頂部”單詞(與“隨機(jī)性”相對(duì)(在溫度為0.8的情況下),盡管它們的概率很快就會(huì)下降(是的,在這個(gè)對(duì)數(shù)-對(duì)數(shù)圖上的直線對(duì)應(yīng)于那么如果繼續(xù)進(jìn)行下去會(huì)發(fā)生什么?這是一個(gè)隨機(jī)的例子。它比頂部單詞(零溫度)這是用最簡單的GPT-2模型(來自2019年)完成的。使用更新的和更大的GPT-3模型會(huì)產(chǎn)生更好的結(jié)果。這是使用相同“提示”生成的頂部單詞(零溫度)文本,但使用最大T的隨機(jī)例子:個(gè)更簡單的問題開始。讓我們考慮每次生成一個(gè)英語字母(而不是單詞)。我們?nèi)绾未_情是只需獲取英語文本的樣本,并計(jì)算其中不同字母出現(xiàn)的,這計(jì)算了“cats”維基百科文章中的字母:現(xiàn)在“dog”這個(gè)詞中)。不過,如果我們獲取足夠大的英語文本樣本,我們可以期望最終一致的結(jié)果:其視為具有一定概率的字母,將其分成“單詞”:實(shí)的單詞”,但結(jié)果看起來稍微好一些了。但是,要進(jìn)一步改進(jìn),我們需要做的不僅僅是隨機(jī)選擇每個(gè)字母。例如,我們知道,如果我們有一個(gè)這是顯示典型英語文本中字母對(duì)(“2-gram2”)的概率的圖。第一個(gè)可能的字母顯示在個(gè)字母。取而代之的是,讓我們一次查看兩個(gè)字母,并使用通過足夠多的英語文本,我們不僅可以獲得單個(gè)字母或字母對(duì)(2-gram)的概率估計(jì),還可以獲得更長的字母序列的概率估計(jì)。如果我們使用逐步更長的n-gram概率生成“隨機(jī)單詞”,我們會(huì)發(fā)現(xiàn)它們逐漸變得“更真實(shí)”:而不是字母。在英語中,大約有40,000個(gè)常用詞。通過查看大量的英語文本(例如幾百“句子”,其中每個(gè)單詞都是獨(dú)立隨機(jī)選擇的,其概率與其在語料庫中出現(xiàn)慮不僅僅是單詞的概率,而是對(duì)單詞對(duì)或更長的n-gram單詞序列的概率進(jìn)行ChatGPT——這意味著我們會(huì)獲得一些會(huì)生成“具有正確整體文本概度的單詞序列。但問題在于:沒有足夠的英語文本可用于推斷這些概率。,我們無法從已有的文本中估算出所有這些可能“文章片段”時(shí),可能性的數(shù)量已經(jīng)大于宇宙中的粒庫中明確看到過這些序列。而ChatGPT的核心正是一個(gè)所謂的“大型語言模型”(LLM),它被構(gòu)建成能夠很好地估算這些概率。比如說你想知道(就像加利略在16世紀(jì)后期那樣)從比薩斜塔的每層樓上落下的炮。好吧,你可以測量每種情況并制作一個(gè)結(jié)果表。或者你可以做理讓我們假設(shè)我們有(有些理想化的)數(shù)據(jù),記錄了炮彈從各個(gè)樓層落地所需的時(shí)間:如果我們只有數(shù)據(jù),而不知道支配它的基本定律,我們可能會(huì)。但是這條直線平均上最接近我們所給出的數(shù)據(jù)。從這條直使用直線?從某種程度上說,我們不知道。這只是一些數(shù)學(xué)abxcx這種情況下,我們做得更好:子是我們用a+b/x+csin(x)最好的后有一定數(shù)量的“旋鈕”可以調(diào)整(也就是可以設(shè)置的參數(shù))來擬合數(shù)據(jù)。在ChatGPT的情合理長度的文章。人類式任務(wù)的模型定數(shù)字?jǐn)?shù)據(jù)模型,這些數(shù)據(jù)基本來自于簡單物理學(xué)——幾個(gè)于這種情況”。但對(duì)于ChatGPT,我們必須建讓我們來談?wù)摿硪环N人類式任務(wù):識(shí)別圖像。作為一個(gè)簡單的例子,讓我們考慮數(shù)字的圖像(是的,這是一個(gè)經(jīng)典的機(jī)器學(xué)習(xí)例子):圖像是否對(duì)應(yīng)于特定的數(shù)字,我們可以將其與我們擁有的數(shù)字。稍后,我們將談?wù)撊绾螛?gòu)建這樣的函數(shù)以及神經(jīng)網(wǎng)絡(luò)的概念。但現(xiàn)在讓我們將函數(shù)視為黑盒子,我們將手寫數(shù)字的圖像(作為像素值的數(shù)組)輸入,并獲我們的目標(biāo)是產(chǎn)生一個(gè)關(guān)于人類識(shí)別圖像的模型,真正需結(jié)果通常與人類的判斷相一致,那么我們就有了一個(gè)“好的模它們有效?嗯,不能。因?yàn)橐龅竭@一點(diǎn),我們必須擁有一個(gè)關(guān)事情的數(shù)學(xué)理論。拿“2”圖像并改變一些像素。我們可以想象,即使只有幾錯(cuò)位”,我們?nèi)詰?yīng)該認(rèn)為這是一個(gè)“2”圖像。但這應(yīng)該持續(xù)多久呢?這是一個(gè)關(guān)于題。是的,答案毫無疑問對(duì)于蜜蜂或章魚是不同的——對(duì)于假想的外神經(jīng)網(wǎng)絡(luò)使用神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是在1940年代發(fā)明的,其形式與今天使用的人類大腦中有約1000億個(gè)神經(jīng)元(神經(jīng)細(xì)胞),每個(gè)神經(jīng)元可以產(chǎn)生電脈沖,每秒在粗略的近似下,任何給定神經(jīng)元是否在給定時(shí)刻產(chǎn)生電脈當(dāng)我們“看到一幅圖像”時(shí),從圖像上的光子落在我們眼睛后面的(光感受器)細(xì)胞上元中產(chǎn)生電信號(hào)。這些神經(jīng)元與其他神經(jīng)元相連,并最終通過一系列信號(hào)。在這個(gè)過程中,我們“識(shí)別”圖像,并最終“形成想法”,即“看到數(shù)字2”(最后可能會(huì)做一些像大聲說“二”之類的事情)。上一節(jié)中的“黑盒子”函數(shù)是這種神經(jīng)網(wǎng)絡(luò)的“數(shù)學(xué)化”版本。它恰好有11個(gè)層(盡管只有4個(gè)“核心層”):別“理論派生”的地方,它只是在1998年作為一種工程構(gòu)造出來的區(qū)別。)神經(jīng)網(wǎng)絡(luò)是如何“識(shí)別東西”的呢?關(guān)鍵在于吸引子的概念。假設(shè),所有數(shù)字2“被吸引到另一個(gè)地方”?;蛘邠Q一種說法,如果一個(gè)圖像與數(shù)字1相比“更接近”,那么我們希望它最終出現(xiàn)在“數(shù)字1的作為一個(gè)直觀的比喻,假設(shè)我們有平面上的某些位置,用點(diǎn)表示(在現(xiàn)實(shí)場景中可能是咖啡店的位置)。然后我們可以想象,從平面上任何一個(gè)點(diǎn)開始,我們總是想要最終到達(dá)最近的點(diǎn)(即我們總是去最近的咖啡店)。我們可以通過將平面分成由理想化的“分水嶺”分開的區(qū)域(“吸引子盆地”)來表示這一點(diǎn):一種“識(shí)別任務(wù)”,我們不是在做像識(shí)別給定圖像“最像哪個(gè)數(shù)字”這樣的事情,而是直接看哪個(gè)點(diǎn)距離給定點(diǎn)最近。(我們?cè)谶@里展示的“Voronoi圖”設(shè)幾里德空間中的點(diǎn)分開;數(shù)字識(shí)別任務(wù)可以被認(rèn)為是在由每個(gè)圖像中所有像素的灰度級(jí)形成的784維空間中執(zhí)行非常類似的操作。)位置{x,y}相對(duì)應(yīng)的“輸入”識(shí)別為最接近的三個(gè)點(diǎn)之一?;蛘邠Q現(xiàn)呢?最終,神經(jīng)網(wǎng)絡(luò)是一個(gè)連接的理想化“神經(jīng)元”集合,通上是設(shè)置為評(píng)估簡單數(shù)值函數(shù)。要“使用”網(wǎng)絡(luò),我們只需在頂部輸入數(shù)字(例如我們的坐標(biāo)x和y),然后讓每個(gè)層上的神經(jīng)元“評(píng)估其函數(shù)”并通過網(wǎng)絡(luò)向傳統(tǒng)的(仿生學(xué)啟發(fā)的)設(shè)置中,每個(gè)神經(jīng)元實(shí)際上有來自上一層神經(jīng)元的一定數(shù)量的“輸入連接”,每個(gè)連接被分配一個(gè)特定的“權(quán)重”(可以是正數(shù)或負(fù)數(shù))。給定神經(jīng)元的將“前置神經(jīng)元”的值乘以其相應(yīng)的權(quán)重,然后加起來并加上常數(shù),最后應(yīng)用“閾值”(或“激活”)函數(shù)來確定的。在數(shù)學(xué)上,如果一個(gè)神經(jīng)元有輸入x={x1,x2...},那么fwxbwb絡(luò)中的每個(gè)神經(jīng)元選擇不同的值;函wxb“激活函數(shù)”f引入了非線性(最終是導(dǎo)致非平凡行為的原因)。通常使用各種激活函數(shù);這里我們將使用Ramp(或ReLU):對(duì)于我們希望神經(jīng)網(wǎng)絡(luò)執(zhí)行的每個(gè)任務(wù)(或等效地,對(duì)于我們希望其評(píng)估的每個(gè)整體常從我們想要的輸出示例來“訓(xùn)練”神經(jīng)網(wǎng)絡(luò)確定的。)都只對(duì)應(yīng)于某個(gè)整體數(shù)學(xué)函數(shù)-盡管可能難以寫出來。對(duì)于上面ChatGPT的神經(jīng)網(wǎng)絡(luò)也只對(duì)應(yīng)于像這樣的數(shù)學(xué)函數(shù)-但實(shí)際上有數(shù)十億個(gè)項(xiàng)。但是讓我們回到單個(gè)神經(jīng)元。這里是一個(gè)帶有兩個(gè)輸入(表示坐標(biāo)x和y)的神經(jīng)元在使用各種不同的權(quán)重和常數(shù)(并使用Ramp作為激活函數(shù))時(shí)可以計(jì)算的一些示例函習(xí)來找到最佳的權(quán)重選擇。然后在這里顯示該權(quán)重的神經(jīng)網(wǎng)絡(luò)計(jì)算每個(gè)吸引子盆地的中心,通常我要的確切答案。但在邊界處——神經(jīng)網(wǎng)絡(luò)“猶豫不決”的地方——事情可學(xué)式“識(shí)別任務(wù)”中,正確答案很明顯。但在識(shí)別手寫數(shù)字的問題中,了。如果有人把“2”寫得像“7”怎么辦?盡管如此,我們可以問一下神經(jīng)例子。假設(shè)我們有貓和狗的圖像。我們有一個(gè)已經(jīng)被訓(xùn)練出來楚“正確答案”是什么。如果有只穿著貓裝的狗呢?等等。無論輸入捉到了“類似于人類”的做事方式。,然后問“為什么這是只貓?”。也許你會(huì)開始說“嗯,我看到了很難解釋你是如何識(shí)別出這張貓的圖片的。這只是因?yàn)槟愕拇竽X以案的。對(duì)于(人造)神經(jīng)網(wǎng)絡(luò)呢?當(dāng)你展示一張貓的圖片時(shí),很容易看到每個(gè)“神經(jīng)元”做于“最近點(diǎn)”問題的最終網(wǎng)絡(luò)中有17個(gè)神經(jīng)元,在用于識(shí)別手寫數(shù)字的網(wǎng)絡(luò)中,將組,就像它正在查看的像素?cái)?shù)組一樣。派生圖像來表示第一層神經(jīng)元的狀態(tài),其中許多圖像我們可但總的來說,我們可以說神經(jīng)網(wǎng)絡(luò)正在“挑選某些特征”(也許尖耳朵是其中之一),似的特征?大多數(shù)情況下我們不知道。但值得注意的是,像這里展示的神經(jīng)網(wǎng)絡(luò)的前幾層似乎挑選出了圖像的某些方面(例如物體的邊緣),這些道在大腦的視覺處理的第一層中被挑選出來的方面。要一個(gè)神經(jīng)網(wǎng)絡(luò)的“貓識(shí)別理論”。我們可以說:“看,這個(gè)特定的網(wǎng)絡(luò)可以做到”——這立即給我們一些“問題的難度”的概念(例如需要多少神經(jīng)元或?qū)?。但們還沒有“弄清楚科學(xué)”,并確定了“自然法則”,使我ChatGPT同樣,不清楚是否有方法“總結(jié)它正在做什么”。但是,語言的豐富性和細(xì)節(jié)(以及我們對(duì)它的經(jīng)驗(yàn))可能會(huì)使機(jī)器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)的訓(xùn)練論了“已經(jīng)知道”如何執(zhí)行特定任務(wù)的神經(jīng)網(wǎng)絡(luò)。但神經(jīng)網(wǎng)絡(luò)之所以如此有用(假定在大腦中也是如此),是因?yàn)樗鼈儾粌H原則上可以執(zhí)行各種任當(dāng)我們制作一個(gè)神經(jīng)網(wǎng)絡(luò)來區(qū)分貓和狗時(shí),我們不需要有效地編寫一個(gè)程序來(例如)明確地找到胡須。相反,我們只需展示大量示例,說明什么是貓,什么是狗,然后例中“概括出”通用的規(guī)律。就像我們上面看到的那網(wǎng)絡(luò)能夠成功地再現(xiàn)我們所給的示例。然后,我們依賴神經(jīng)網(wǎng)絡(luò)在一種“合理”的方式下“插值”(或“概括”)這些示例。近點(diǎn)問題更簡單的問題。我們只是試圖讓神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)函的權(quán)重所得到的結(jié)果:,在這些情況下,它都沒有成功地接近我們想要的函數(shù)。那重呢?量的“輸入→輸出”示例進(jìn)行“學(xué)習(xí)”,然后嘗試找到能夠復(fù)現(xiàn)這些示么我們?nèi)绾握{(diào)整權(quán)重呢?基本思路是在每個(gè)階段看“我們與目標(biāo)為了了解“我們與目標(biāo)的距離有多遠(yuǎn)”,我們計(jì)算通常稱為“損失函數(shù)”(有時(shí)稱為“代價(jià)函數(shù)”)。在這里,我們使用簡單的(L2)損失函數(shù),它只是獲取值和真實(shí)值之間差值的務(wù)的不同“學(xué)習(xí)曲線”)-直到達(dá)到一個(gè)點(diǎn),網(wǎng)絡(luò)(至少可以很好地近似)成功地復(fù)制所需的函部分需要解釋的是如何調(diào)整權(quán)重來減少損失函數(shù)。正如我們所出了我們得到的值和真實(shí)值之間的“距離”。但是“我們得到的值”是由當(dāng)前例如,假設(shè)(極大地簡化了實(shí)際使用的典型神經(jīng)網(wǎng)絡(luò)),我們只有兩個(gè)權(quán)重w1和w2。那么我們可能會(huì)有一個(gè)損失,它關(guān)于w1和w2的函數(shù)看起來像這樣:用于在這種情況下找到最小值。但是典型的方法是從任何w,這個(gè)過程只能保證最終會(huì)到達(dá)表面的某個(gè)局部最小值 (“山脊湖”);它可能不會(huì)達(dá)到最終的全局最小值。景觀”上找到最陡峭的下降路徑是否可行。但是微積分來拯救我到的,我們始終可以將神經(jīng)網(wǎng)絡(luò)視為計(jì)算一種數(shù)學(xué)函數(shù)-這種函數(shù)取。但是現(xiàn)在考慮相對(duì)于這些權(quán)重微分。結(jié)果表明,微積分的鏈?zhǔn)椒ń忾_”了神經(jīng)網(wǎng)絡(luò)中的連續(xù)層所做的操作。結(jié)果是我們可以-至少在某種出相關(guān)聯(lián)的損失的權(quán)重。,即使有更多的權(quán)重(ChatGPT使用了1750億個(gè)),仍然有可能做到最小化,至少是在某的逼近。實(shí)際上,“深度學(xué)習(xí)”在2011年左右的重大突破與發(fā)現(xiàn)有關(guān),即在某種部最小值(“山湖”),沒有“方向可以走出去”。效同解決方案”都將具有至少稍微不同的行為。如果我們要求在我們提們可能會(huì)得到截然不同的結(jié)果?!昂侠怼?。神經(jīng)網(wǎng)絡(luò)訓(xùn)練的實(shí)踐和經(jīng)驗(yàn)十年里,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練藝術(shù)取得了許多進(jìn)展。是的,這基本上是一釋。用什么樣的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。然后是網(wǎng)絡(luò)的訓(xùn)練數(shù)據(jù)的關(guān)鍵問題。并且越來越多地不是從頭訓(xùn)練網(wǎng)絡(luò):新的網(wǎng)成另一個(gè)已經(jīng)訓(xùn)練好的網(wǎng)絡(luò),或者至少可以使用該網(wǎng)絡(luò)生成更多的訓(xùn)練示的乎即使對(duì)于明顯不同的任務(wù)也可以工作。在某種程度上,這讓人想起了通用計(jì)算的概念(以及我關(guān)于計(jì)算等價(jià)性原理的觀點(diǎn)),但正如我稍后將討論的反映了我們通常試圖讓神經(jīng)網(wǎng)絡(luò)執(zhí)行的任務(wù)是“類似人類”的,而神經(jīng)網(wǎng)的“類似人類的過程”。做事情”。例如,的獨(dú)立組件引入神經(jīng)網(wǎng)絡(luò)中,以讓它們實(shí)際上“顯式實(shí)現(xiàn)特定在大多數(shù)情況下都被證明不值得;相反,更好的方法是使用非常簡單的組件,并讓它們“自我組織”(雖然通常是以我們無法理解的方式)來實(shí)現(xiàn)(可能是)等價(jià)的算法思想。理圖像的早期階段似乎至少非常有用。而具有集中于“向后查看序列”的連有用——正如我們后面將在ChatGPT中看到的那樣——處理諸如人類語言之D式”的數(shù)組開始,很快“變厚”到許多通道,然后“集中”到一個(gè)1D數(shù)組么才能確定一個(gè)特定任務(wù)所需要的神經(jīng)網(wǎng)絡(luò)有多大呢?這是一種藝上,關(guān)鍵是要知道“任務(wù)有多難”。但是對(duì)于像人類一樣的任務(wù),通常很難有一種機(jī)械的方式來做這個(gè)任務(wù)。但是很難知道是否有所謂的技巧或我們以“人類水平”更輕松的方式完成任務(wù)??赡苄枰杜e一個(gè)巨大的游戲樹才能“機(jī)械化”地玩某個(gè)游戲;但是可能有一種更容易的(“啟發(fā)式”)方法來實(shí)現(xiàn)“人類級(jí)。過器”網(wǎng)絡(luò)只能學(xué)習(xí)基本上是線性的函數(shù)——但是只要有一個(gè)中間層,就總體上練,通常具有某種正則化或歸一化。)定了特定的神經(jīng)網(wǎng)絡(luò)架構(gòu)?,F(xiàn)在問題在于如何獲取用于訓(xùn)練網(wǎng)網(wǎng)絡(luò)和機(jī)器學(xué)習(xí)的許多實(shí)際挑戰(zhàn)都集中在獲取或準(zhǔn)備必要的訓(xùn)練數(shù)據(jù)上。在許多情況下(“監(jiān)督學(xué)習(xí)”),人們希望獲得輸入的明確示例以及預(yù)期的輸出。例望標(biāo)記圖像中包含的內(nèi)容或其他屬性。也許人們需要明確地進(jìn)行標(biāo)記,。但很多時(shí)候,人們發(fā)現(xiàn)可以借助已經(jīng)完成的工作或使用它作為某言中的網(wǎng)頁或其他文檔的平行版本?!稗D(zhuǎn)移學(xué)習(xí)”將已在另一個(gè)網(wǎng)絡(luò)中學(xué)習(xí)到的重要功能列表“轉(zhuǎn)移”到網(wǎng)絡(luò)中求。但通常,神經(jīng)網(wǎng)絡(luò)需要“看到很多示例”才能進(jìn)行良好的訓(xùn)練。對(duì)于某上,標(biāo)準(zhǔn)策略是將所有示例重復(fù)顯示給神經(jīng)網(wǎng)絡(luò)。在這些“訓(xùn)練輪次”(或“周期”)中,神少稍微不同的狀態(tài),并且以某種方式“提醒它”特定示例對(duì)于幫助它“記住該示例”是有用的。(是的,這也許類似于人類記憶中重復(fù)的有用性。)同的示例并不足夠。還需要向神經(jīng)網(wǎng)絡(luò)展示示例的變化。神經(jīng)網(wǎng)絡(luò)傳,這些“數(shù)據(jù)增強(qiáng)”變化并不需要很復(fù)雜就可以很有用。僅使用基本圖像處理略就可以使其在神經(jīng)網(wǎng)絡(luò)訓(xùn)練中“嶄新如初”。同樣,當(dāng)實(shí)際視頻數(shù)據(jù)用盡時(shí),人。ChatGPT這樣的模型呢?它有一個(gè)很好的特點(diǎn),即可以進(jìn)行“無監(jiān)督學(xué),使得從中獲得示例進(jìn)行訓(xùn)練變得更加容易?;叵胍幌?,ChatGPT的基本任務(wù)是找出因此,要獲得“訓(xùn)練示例”,我們只需要獲得一段文本,將其末尾遮訓(xùn)練輸入”——而“輸出”則是完整的、未被遮蔽的文本。我們稍后會(huì)詳一點(diǎn)是,與例如學(xué)習(xí)圖像中的內(nèi)容的情況不同,這里不需要進(jìn)行“明確標(biāo)記”;ChatGPT實(shí)際上可以直接從任何文本示例中學(xué)習(xí)。際學(xué)習(xí)過程是怎樣的呢?最終,它都是確定哪些權(quán)重最能捕捉到所給出的訓(xùn)練示例。有各種各樣的詳細(xì)選擇和“超參數(shù)設(shè)置”(所謂的權(quán)重可以被認(rèn)為是“參數(shù)”),可用于調(diào)整如何進(jìn)行這樣的權(quán)重調(diào)整。有不同的損失函數(shù)選擇(平方和、絕對(duì)值和等)。有不同的損失最小化方法(每一步在權(quán)重空間移動(dòng)的距離等)。然后,還多少個(gè)示例以獲取每個(gè)連續(xù)的損失估計(jì)。是的,我們可以應(yīng)用機(jī)器學(xué)習(xí)(例如在Wolfram語言中)來自動(dòng)化機(jī)器學(xué)習(xí),以及自動(dòng)設(shè)置像超參數(shù)這情。如,這是一個(gè)小型T續(xù)給定的一段文本。因此,要獲得“訓(xùn)練示例”,我們只需要獲取一段文尾的部分遮蔽,然后將其用作“訓(xùn)練輸入”,“輸出”是完整的、未遮蔽的文論這個(gè)問題,但主要的觀點(diǎn)是,與學(xué)習(xí)圖像內(nèi)容等任務(wù)不同,這里不需要“顯式標(biāo)記”,ChatGPT實(shí)際上可以直接從給定的任何文本示例中學(xué)習(xí)。學(xué)習(xí)過程是什么樣的呢?最終,它都是關(guān)于確定哪些權(quán)重最能捕捉到已經(jīng)給定的訓(xùn)練示例的過程。有各種各樣的詳細(xì)選擇和“超參數(shù)設(shè)置”(所謂的“參數(shù)”是指權(quán)重),可以用來調(diào)整這個(gè)過程。有不同的損失函數(shù)選擇(平方和、絕對(duì)值之和等)。有不同的損失最小化方法(每一步在權(quán)重空間中移動(dòng)多遠(yuǎn)等)。然后有像“批次”大小這樣的問題,即每次展示多少個(gè)示例來獲取正在嘗試最小化的損失的每個(gè)連續(xù)估計(jì)值。是的,可以應(yīng)用機(jī)器學(xué)習(xí)(就像我們?cè)赪olframLanguage中所做的那樣),來自動(dòng)化機(jī)器學(xué)習(xí),并自動(dòng)設(shè)置像超參數(shù)之類的東西。如這個(gè)小訓(xùn)練的WolframLanguage進(jìn)度監(jiān)視器):樣的計(jì)算系統(tǒng)中,基本上是并行處理許多個(gè)體比特,從而進(jìn)行這種容易實(shí)現(xiàn)。是它們之間連接的強(qiáng)度(“權(quán)重”)。(也許在至少是年輕的大腦中,全新的連接數(shù)量也于實(shí)現(xiàn)我們所需的功能的最佳方式。可能涉及相當(dāng)于漸進(jìn)網(wǎng)絡(luò)重寫的東西(也許類似于我們的物理項(xiàng)目),最終可能更好。部分時(shí)間在訓(xùn)練期間都是“空閑的”,只有一部分在更新。從某種意義上說,這是因?yàn)槲覀儺?dāng)前的計(jì)算機(jī)傾向于具有與其CPU(或GPU)分離的內(nèi)存。但是在大腦中,這可能是不同的——每個(gè)“內(nèi)存元素”(即神經(jīng)元)也是一個(gè)潛在的主動(dòng)計(jì)算元素。這種方式設(shè)置未來的計(jì)算機(jī)硬件,可能會(huì)更有效地進(jìn)行訓(xùn)練。ChatGPT這樣的東西的能力看起來如此令人印象深刻,以至于人們可能會(huì)想象,如來越大的神經(jīng)網(wǎng)絡(luò),那么它們最終就能“做任何事情”。如果立即接近人類思維。但是一般情況是計(jì)算。最終問題是計(jì)算不可化簡本質(zhì)上跟蹤每個(gè)計(jì)算步驟才能工作:很可能是特別選擇避免計(jì)算不可化簡的。在大腦中進(jìn)行數(shù)學(xué)的。一般情況下是計(jì)算。最終的問題是計(jì)算不可約性,無論如何都需要追蹤每一步計(jì)算:中進(jìn)行數(shù)學(xué)計(jì)算。實(shí)際上,在大腦中僅靠思考就可以“推斷”任何非平凡是很難的。能是一個(gè)純粹的“前饋”網(wǎng)絡(luò),沒有循環(huán),因此無法進(jìn)行任何具有非史并不是特別重要的。但是我們現(xiàn)代的技術(shù)世界是建立在利用至少數(shù)學(xué)計(jì)算(越來越多地也是更一般的計(jì)算)的工程學(xué)之上的。如果我們看看自然界,那里——我們正在慢慢地理解如何模擬和利用它們來實(shí)現(xiàn)我們的技術(shù)目那些規(guī)律。但除都可能令人感到困惑。過去有很多任務(wù)——包括寫作文——我們認(rèn)為到像ChatGPT這樣的任務(wù)完成后,我們機(jī)必須已經(jīng)變得強(qiáng)大得多——尤其是超越了它們已經(jīng)基本能夠完成的事情(例如逐步計(jì)算細(xì)胞自動(dòng)機(jī)等計(jì)算系統(tǒng)的行為)。的結(jié)論。計(jì)算不可約過程仍然是計(jì)算不可約的,對(duì)于計(jì)算機(jī)來說仍然計(jì)算機(jī)可以輕松計(jì)算它們的每個(gè)步驟。相反,我們應(yīng)該得出的結(jié)論絡(luò)能夠成功地寫一篇論文的原因是寫論文原來比我們想象的“計(jì)算情。但你無法掌握自然界普遍能做到的東西,或者我們從自然界中制造的工具所能做到的。正是這些工具的使用,包括實(shí)踐和概念上的工具,使我們?cè)谧罱鼛讉€(gè)世紀(jì)里超越了務(wù)。嵌入(Embeddings)的概念本等內(nèi)容,我們需要一種用數(shù)字來表示這些內(nèi)容的方式。當(dāng)然,我們可以ChatGPT一樣,為字典中的每個(gè)單詞分配一個(gè)數(shù)字。但是還有一個(gè)重要的想法——例過數(shù)字?jǐn)?shù)組來表示某些東西的“本質(zhì)”的方式——這些數(shù)字具有“附近事物”的性以將單詞嵌入視為一種嘗試在某種“含義空間”中布置單詞的方式,在這義”的單詞靠近嵌入中。實(shí)際使用的嵌入——例如在ChatGPT在嵌入中的分布:日常印象方面做得非常好。但是我們?cè)撊绾螛?gòu)建這樣的嵌入呢?粗略地說,想法是觀察大量的文本(例如從網(wǎng)絡(luò)中收集的50億個(gè)單詞),然后看看著它們?cè)谇度胫锌拷?。但是“蘿卜”和“老鷹”通常不會(huì)出現(xiàn)在其他相似的列表的方式來描述圖像,使得我們認(rèn)。前我們討論過一個(gè)訓(xùn)練用于識(shí)別手寫數(shù)字設(shè)置了一個(gè)最終輸出,將圖像放入10個(gè)不最終“它是‘4’”的決策做出之前“攔截”正在發(fā)生的事情呢?我們可能我們不是直接嘗試表征“哪個(gè)圖像靠近哪個(gè)圖像”,而是考慮一個(gè)明確定義的任務(wù)(在這種情況下是數(shù)字識(shí)別),我們可以得到明確的訓(xùn)練數(shù)據(jù)-然后利用這神經(jīng)網(wǎng)絡(luò)”隱含地確定這意味著“圖像的相似度”。詳細(xì)地工作呢?我們可以將網(wǎng)絡(luò)看作由1110個(gè)值的數(shù)組,我們可以認(rèn)為它表示神經(jīng)網(wǎng)絡(luò)確定圖像與數(shù)字0這個(gè)圖像是“非常確定”的它是一個(gè)4——要得到輸出“4”,我們只需要選出數(shù)值最大的神經(jīng)元的位置。神經(jīng)元的值是:神經(jīng)元仍然具有最高的數(shù)值。但其他神經(jīng)元的值中也包含信息。我們可以預(yù)字列表在某種程度上可以用于表征圖像的“本質(zhì)”——從而提供我們可以用作嵌入的內(nèi)容。例如,在這里的每個(gè)4都具有略微不同的“簽名”(或“特征嵌入”)——與8完在我們的手寫數(shù)字識(shí)別網(wǎng)絡(luò)中,我們可以通過接入前面一層來獲得一個(gè)500個(gè)數(shù)可能是一個(gè)合理的數(shù)組,可以用作“圖像嵌入”。我們剛剛討論了如何有效地創(chuàng)建圖像的表征(和因此的嵌入),基本上是通過確定圖即根據(jù)我們的訓(xùn)練集確定它們是否對(duì)應(yīng)于相同的手寫數(shù)字。如果我們有一個(gè)訓(xùn)練集,可以確定每個(gè)圖像屬于5000個(gè)常見類型的對(duì)象(例如貓、狗、椅子等),我為與常有用。同樣的方法來找到單詞的嵌入呢?關(guān)鍵是從一個(gè)有關(guān)單詞的任被給出“the___cat”。根據(jù)一個(gè)大型的文本語料庫(比如,Web上的文本內(nèi)容),可能會(huì)“填補(bǔ)空白”的不同單詞有哪些概率?或者,給定“___black___”,不同“兩側(cè)單詞”的概率是來表達(dá)所有東西。其中一e914,“cat”(前面有一個(gè)空格)可能是3542。(這些是GPT-2使用的實(shí)際數(shù)字。)因此,在神經(jīng)網(wǎng)絡(luò)“達(dá)成結(jié)論”之前“攔截”其“內(nèi)部”——然后捕捉發(fā)生在那里的數(shù)字以將其視為“表征每個(gè)單詞”??雌饋硎鞘裁礃幼拥??在過去的10年里,已經(jīng)開發(fā)了一系列不同的wordvecGloVeBERTGPT方法。但向量”的原始形式并不具有信息量。例如,這里是GPT-2為三個(gè)特定單詞產(chǎn)任務(wù)開始,我們可以很容易地進(jìn)行訓(xùn)練。標(biāo)準(zhǔn)的任務(wù)是“單詞預(yù)測”。想象一下,我們有“the___cat”?;诖罅康奈谋菊Z料庫(比如網(wǎng)絡(luò)上的文本內(nèi)容),不同的單詞“填空”的概率是多少?或者,給定“___black___”,不同的“側(cè)面單詞”的概率是多少?這個(gè)問題?最終我們必須用數(shù)字來表示一切。一種方法是為e914,“cat”(前面有一個(gè)空格)可能是3542(這些是GPT-2實(shí)際使用的數(shù)字)。因此,對(duì)the___cat”問題,我們的輸入可能是{914,3542}。輸出應(yīng)該是一個(gè)包含約50,000個(gè)數(shù)際上為每個(gè)可能的“填充”單詞提供概率。再次為了找到嵌入,我們想要“攔網(wǎng)絡(luò)的“內(nèi)部”,就在它“達(dá)到結(jié)論”之前,然后獲取發(fā)生在那里的列表,我們可以認(rèn)征每個(gè)單詞”。 表對(duì)其進(jìn)行特征化。入向量:如果我們計(jì)算這些向量之間的距離,那么我們就可以找到單詞的“相稍后我們將更詳細(xì)地討論這樣的嵌入的“認(rèn)知”意義。但是現(xiàn)在的主要觀點(diǎn)是,我經(jīng)網(wǎng)絡(luò)友好”的數(shù)字集合??梢愿M(jìn)一步,不僅可以通過數(shù)字集合來表征單詞,還可以為單詞序個(gè)文本塊做到這一點(diǎn)。在ChatGPT內(nèi)部,它就是這樣處理的。它接受到目前成一個(gè)嵌入向量來代表它。然后它的目標(biāo)是找到可能出現(xiàn)的不同單詞ChatGPT內(nèi)部準(zhǔn)備好討論ChatGPT內(nèi)部是什么了。毫無疑問,它最終是一個(gè)巨大的顯著的特點(diǎn)是神經(jīng)網(wǎng)絡(luò)架構(gòu)中的“變形器”。第一個(gè)神經(jīng)網(wǎng)絡(luò)中,任何給定層的每個(gè)神經(jīng)元基本上都與前一層的每個(gè)神經(jīng)元連接(至少有一些權(quán)重)。但是,如果處理具有特定已知結(jié)構(gòu)的數(shù)據(jù),則這的卷積神經(jīng)網(wǎng)絡(luò)("convnets"),其中神經(jīng)元實(shí)際上是布置在類似于圖像中的像素的網(wǎng)格列進(jìn)行類似的操作。但是,變形器不是僅定接的序列,而是引入了“注意力”概念和“更多地關(guān)注”序列的某些部分的訓(xùn)練就可以啟動(dòng)通用的神經(jīng)網(wǎng)絡(luò)并完成所有自定義工作,但至好的,那么ChatGPT(或者說,它所基于的GPT-3網(wǎng)絡(luò))實(shí)際上是做什么的呢?請(qǐng)記住,它的總體目標(biāo)是基于它從訓(xùn)練數(shù)據(jù)中(包括查看來自Web等的數(shù)十億個(gè)文本頁面)任何給定時(shí)刻,它都有一定量的文本,并是選擇適當(dāng)?shù)南乱粋€(gè)令牌來添加。本所對(duì)應(yīng)的令牌序列,并找到表示這些令牌的嵌入(即一組數(shù)字)。然后,它在此嵌入上操作,以“標(biāo)準(zhǔn)神經(jīng)網(wǎng)絡(luò)方式”進(jìn)行操作,值會(huì)“漣漪”到網(wǎng)絡(luò)的連續(xù)層中,以生成一個(gè)新的嵌入(即一個(gè)新的數(shù)字?jǐn)?shù)組)。然不同可能的下一個(gè)令牌的概率。(是的,碰巧用到的令牌數(shù)與英語中常用單詞數(shù)大致相同,盡管其中僅有約3000個(gè)令牌是完整單詞,其余都是片段。)從中“學(xué)習(xí)”的。種經(jīng)驗(yàn)和神經(jīng)網(wǎng)絡(luò)學(xué)說。雖然這該模塊的輸入是n個(gè)令牌(如前一部分所示,由1到大約50,000的整數(shù)表示)。其中每個(gè)令牌都通過一個(gè)單層神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換為一個(gè)嵌入向量(對(duì)于GPT-2長度為768,對(duì)于ChatGPTGPT還有一個(gè)“次要路徑”,它獲取令牌的整數(shù)位置數(shù)創(chuàng)建另一個(gè)嵌入向量。最后,將來自令牌值和令牌位置的嵌入向量成來自嵌入模塊的最終嵌入向量序列。呢?我認(rèn)為這并沒有特別的科學(xué)性。只法,這種方法似乎行之有效。而且神經(jīng)網(wǎng)絡(luò)的傳統(tǒng)認(rèn)為是,只要程級(jí)別的情況”。hellohellohellohellohellohellohellohellobyebyebyebyebyebyebyebyebyebye進(jìn)行操作:頁面上,我們首先看到一隨機(jī)的結(jié)構(gòu)僅僅是“被學(xué)習(xí)到的”(在本例中是在GPT-2中學(xué)習(xí)到的)。好的,嵌入模塊之后是變壓器的“主要事件”:一系列所謂的“注意力塊”(GPT-2為12ChatGPTGPT。這一切非常復(fù)雜,讓人想起典型的難以理解的大型工2):GPT2個(gè),ChatGPT的GPT-3為96個(gè)),每個(gè)頭都獨(dú)立地在嵌入向量的不同值塊上運(yùn)行。(是的,我們不知道將嵌入向量分割成不同的部分,或者不同的部分代表什么含義是個(gè)好主意的原因,這只是那些“被發(fā)現(xiàn)有效”的事情之一。)好的,那么注意力頭是做什么的呢?基本上,它們是一種“回顧”標(biāo)記序列(即迄今為止生成的文本),并以對(duì)尋找下一個(gè)標(biāo)記有用的形式“打包過去”。在上面的第一節(jié)中,我們談到使用2-gram概率根據(jù)其直接前任選擇單詞。轉(zhuǎn)換器中的“注意力”機(jī)制允許“關(guān)注”而潛在地捕捉諸如動(dòng)詞如何引用在句子中出現(xiàn)許多單詞之前的名詞,注意力機(jī)制的作用是重新組合與不同標(biāo)記相關(guān)的嵌入向量塊,具bye”字符串具有以下“重新組合權(quán)重”的模式(“回望整個(gè)標(biāo)記序列的模式”):ChatGPT的GPT-3中為長度12,288)被傳遞到一個(gè)標(biāo)準(zhǔn)的“全連接”神經(jīng)網(wǎng)絡(luò)層。很難掌握這一層在做什么。但是,這里是它使用的768×768權(quán)重矩陣的繪圖(這里是GPT-2):取64×64移動(dòng)平均值,會(huì)出現(xiàn)一些(隨機(jī)漫步般的)結(jié)構(gòu):T后,我們得到了一個(gè)新的嵌入向量,然后它會(huì)被連續(xù)地傳遞到其他注意力塊中(GPT-2有12個(gè)注意力塊,GPT-3有96個(gè))。每個(gè)注意力塊都有自己以下是(移動(dòng)平均后的)全連接層的“矩陣”:同注意力塊中的“權(quán)重矩陣”看起來相似,但是權(quán)重大小的分布可能會(huì)有所不同(而且不總是高斯分布):塊后,變壓器的凈效應(yīng)是什么?它的本質(zhì)就是將序列中的原ChatGPT方式是挑選這個(gè)集合中的最后一個(gè)碼”為下一個(gè)標(biāo)記的概率列表。ChatGPT的略有任意性的“工程選擇”,但ChatGPT的原始輸入是一個(gè)數(shù)字?jǐn)?shù)組(至今為止標(biāo)記的嵌入向量),當(dāng)ChatGPT“運(yùn)行”這些數(shù)字會(huì)“漣漪”通過神經(jīng)網(wǎng)絡(luò)的層,每個(gè)神經(jīng)元都會(huì)“做它的事情”并的神經(jīng)元。沒有循環(huán)或“回退”。一切都只是通過網(wǎng)絡(luò)“前饋”。這與典型計(jì)算系統(tǒng)(如圖靈機(jī))非常不同,在這種系統(tǒng)中,結(jié)果會(huì)由相同的計(jì)算元素重復(fù)“重新處理”。在這里,至少在生成給定的輸出標(biāo)記時(shí),每個(gè)計(jì)算元素(即神經(jīng)元)僅次。ChatGPT計(jì)算元素。因?yàn)楫?dāng)ChatGPT要生成新標(biāo)記時(shí),它總是“讀取”(即將其作為輸入)前面的所有標(biāo)記,包ChatGPT自己之前“寫入”的標(biāo)記。我們可以將這種設(shè)置視為意味著ChatGPT在其最外層出現(xiàn)在它生成的文本中的標(biāo)記顯式可見。PT上,它非常簡單:整個(gè)相同的人工神經(jīng)元集合。網(wǎng)絡(luò)的某些部分只包含(“全連接”)神經(jīng)元層,其中給定層上的每個(gè)神經(jīng)元都與之前的層上的每個(gè)神經(jīng)元連接(具有一些權(quán)ChatGPT結(jié)構(gòu)的部分,其中僅連接不同層上的特定神經(jīng)元。(當(dāng)然,人們?nèi)匀豢梢哉f“所有神經(jīng)元都連接在一起”,但有些神經(jīng)元重為零。)“處理路徑”進(jìn)行處理,潛在地涉及不同數(shù)量的層,然后才重新組合。但雖然這可能是正在權(quán)重為零。如果查看通過ChatGPT的最長路徑,則涉及約400個(gè)(核心)層-在某些方面不算很每次ChatGPT生成一個(gè)新標(biāo)記時(shí),它都必須進(jìn)行涉及每個(gè)權(quán)重的計(jì)算。在實(shí)但對(duì)于每個(gè)生成的標(biāo)記,仍然必須完成1750億個(gè)計(jì)算(最后還要多一些)-因此,不出ChatGPT。個(gè)出色的“類人”文本生成工作。必須再次強(qiáng)調(diào)(至少就我們目前所知),沒有“終極理論么會(huì)有像這樣的事情發(fā)生。實(shí)際上,正如我們將要討論的那樣,我認(rèn)為我們必須將其視為一項(xiàng)-可能令人驚訝的-科學(xué)發(fā)現(xiàn):在像ChatGPT的神經(jīng)網(wǎng)絡(luò)中,以某種方類大腦在生成語言方面所能做的本質(zhì)。ChatGPT的訓(xùn)練已經(jīng)概述了ChatGPT設(shè)置后的運(yùn)作方式。但是它是如何設(shè)置的呢?它的1750億個(gè)權(quán)重是如何確定的呢?基本上,它們是通過基于人類編寫的大量文本語料庫進(jìn)行大規(guī)模訓(xùn)練的結(jié)果,這些文本來自網(wǎng)絡(luò)、書籍等。正如我們所說,即使有了所有這些訓(xùn)練數(shù)據(jù),神經(jīng)網(wǎng)絡(luò)能夠成功地生成“人類風(fēng)格”的文本也絕非顯而易見。并且,再一次強(qiáng)調(diào),似乎需要一些詳細(xì)的工程要素才能實(shí)現(xiàn)這一點(diǎn)。但ChatGPT的驚人之處——和發(fā)“合理的模型”,模擬人類寫作的文本。以數(shù)字形式存在的人類寫作文本。公共網(wǎng)絡(luò)上至少有數(shù)十億個(gè)人類編億字的文本。如果包括非公共網(wǎng)頁,這個(gè)數(shù)字可能要大100倍。到目前為止,已經(jīng)提供了超過500萬本數(shù)字化的書籍(共有大約1億本出版過的書籍),提供了大約1000億個(gè)單詞的文本。這還沒有提到視頻中的語音衍生文本等。作為個(gè)人的比較,我一生中發(fā)表的總文字量不到300萬字,過去30年我寫了大約1500萬字子郵件,總共打了大約5000萬字的字——僅在過去的幾年里,我就在直播中說了超數(shù)據(jù),怎么訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)呢?基本過程就像我們之前討論你展示一批例子,然后調(diào)整網(wǎng)絡(luò)中的權(quán)重,以最小化網(wǎng)絡(luò)在這些例子上產(chǎn)生的誤差(“損失”)?!胺聪騻鞑ァ闭`差最主要的開銷在于每次這樣做時(shí),網(wǎng)絡(luò)中的每個(gè)權(quán)重通常都會(huì)至少微調(diào)一點(diǎn),而需要處理的權(quán)重?cái)?shù)量就是很多。(實(shí)際的“反向計(jì)算”通前向計(jì)算更難一點(diǎn)點(diǎn)。)素上至少有一個(gè)架構(gòu)優(yōu)勢的地方。)ChatGPT多次接收了同一些文本,有些則僅接收了一次。但不知道在這么大的語料們通常用它說的話可能存在一定的“總算法內(nèi)容”。但接下來的問題是神經(jīng)網(wǎng)現(xiàn)基于該算法內(nèi)容的模型時(shí)的效率有多高。同樣,我們不知道,盡管ChatGPT的,我們可以指出的是,ChatGPT使用了幾千億個(gè)權(quán)重來完成它的任務(wù),這個(gè)數(shù)量與它所接受的訓(xùn)練數(shù)據(jù)的總詞數(shù)(或令牌數(shù))相當(dāng)。在某些方面,令人驚訝的是(盡管在ChatGPT的較小模擬中也有經(jīng)驗(yàn)觀察到這一點(diǎn)),似乎能夠很好地工作的“網(wǎng)絡(luò)大小”與有文本的內(nèi)容。因?yàn)閷?shí)際上ChatGPT內(nèi)部是由一堆數(shù)字組成的,這些數(shù)字有不到10位數(shù)字的精度,它們是所有這些文本的聚合結(jié)構(gòu)的某種分布式編碼。小”的表示方式(如下面所述)。但這是一種神經(jīng)網(wǎng)絡(luò)可以方便地使用的表示方式。在這數(shù)據(jù)似乎基本上很少經(jīng)過“壓縮”;每個(gè)訓(xùn)練數(shù)據(jù)詞的信息內(nèi)容基本上只需神經(jīng)網(wǎng)絡(luò)權(quán)重來傳輸。元來進(jìn)行培訓(xùn)。除了基本的訓(xùn)練之外ChatGPT花在“展示大量現(xiàn)有文本”方面。但是結(jié)果表明還有另一常重要的方面。ChatGPT文本語料庫中完成“原始訓(xùn)練”,內(nèi)部神經(jīng)網(wǎng)絡(luò)就準(zhǔn)備好地檢測出來的。但是,實(shí)際閱讀文本的人很容易注意到這PT一個(gè)神經(jīng)網(wǎng)絡(luò)模型,試圖預(yù)測這些評(píng)級(jí)。但是現(xiàn)在可以在原始網(wǎng)調(diào)整”。似乎對(duì)于該系統(tǒng)成功產(chǎn)生“類人”的輸出有很大的影響。能認(rèn)為為了讓網(wǎng)絡(luò)的行為就像“學(xué)習(xí)了一些新的東西”,必須運(yùn)行訓(xùn)練訴ChatGPT一次某些信息,它就能生了什么呢?可能是“你可能告訴它的一切信息已經(jīng)存在于它的某個(gè)地方”——你只里了,但具體的細(xì)節(jié)由像“這些元素之間的軌跡”之類的東西定義,而你所做的就是整合”這些信息。只有當(dāng)它基本上在已有的框架上以相當(dāng)簡單的方網(wǎng)絡(luò)無法避免“算法限制”。如果給它“表層”形式的規(guī)則,例個(gè)”,神經(jīng)網(wǎng)絡(luò)很可能能夠良好地表示和重現(xiàn)這些規(guī)則,并且它已經(jīng)從語言在的計(jì)算不可約步驟的“深度”計(jì)算規(guī)則,它將無法正常工作。(請(qǐng)記住,在每一步中,它網(wǎng)絡(luò)中“向前傳遞數(shù)據(jù)”,除了生成新令牌外不會(huì)循環(huán)。)組合數(shù)量的可能性,就查找式”的方法可行。因此,就像人類一樣,神經(jīng)網(wǎng)絡(luò)需要“伸出手”并使世界中的事物”,就像語言模型神經(jīng)網(wǎng)絡(luò)一樣。)ChatGPT能夠工作?。事實(shí)上,人類的大腦只有大約1000億個(gè)神經(jīng)元(可能有1萬億個(gè)連接),卻能夠創(chuàng)造出如此復(fù)雜的語腦除了神經(jīng)元網(wǎng)絡(luò)還有其他未被發(fā)現(xiàn)的物理層面。但現(xiàn)在有了下,通過放大系統(tǒng)的表現(xiàn)復(fù)雜性來大幅度提高系統(tǒng)的復(fù)雜性(這在規(guī)則30的例子中首次表現(xiàn)出來)。但正如我們上面討論的那樣,ChatGPT中使用的神經(jīng)網(wǎng)絡(luò)類型通常是特別構(gòu)種現(xiàn)象和與之相關(guān)的計(jì)算不可化簡性,以便使它們的訓(xùn)練更易于理解。上某種程度上比看起來要簡單。這意味著,即使是具有最終簡單的神ChatGPT人類語言及其背后的思維的本質(zhì)。此外,在訓(xùn)練過程中,ChatGPT以某種方式“隱含地發(fā)現(xiàn)”了使這一切成為可能的語言(和思考)的含的。但是,如果我們能夠以某種方式使這些法則變得明確,ChatGPT所做的各種事情。及我們用它說的事情的指導(dǎo)。稍后我們將討論“查看ChatGPT內(nèi)部”可能能夠?yàn)槲乙约皬臉?gòu)建計(jì)算語言方面得出的認(rèn)識(shí)提供了一條前進(jìn)的道路。但首們討論兩個(gè)長期已知的“語言法則”的例子,以及它們與ChatGPT的運(yùn)作方式的關(guān)跟隨動(dòng)詞,但通常兩個(gè)名詞不能緊挨著。這種語法結(jié)構(gòu)可以(至少近似地)通過定義“解ChatGPT沒有任何明確的關(guān)于這些規(guī)則的“知識(shí)”。但是在它的訓(xùn)練過程中,它隱含地“發(fā)現(xiàn)”了它們,然后似乎很擅長遵循它們。那么這是如何實(shí)現(xiàn)的呢?在“大局”層面上不是考慮一個(gè)由(和)序列組成的“語言”,語法規(guī)定括號(hào)必須平衡,如下面的解析樹所T換器網(wǎng)絡(luò),我們可以開始將語法正確的括號(hào)序列作為訓(xùn)練示例輸入。一個(gè)細(xì)節(jié)(實(shí)際上也出現(xiàn)在ChatGPT生成人類語言的過程中)是,除了我們的“內(nèi)容標(biāo)記”(這里是“(”和“)”)外,我們還必須包括一個(gè)“End”標(biāo)記,用于指示輸出不應(yīng)繼續(xù)(即對(duì)于ChatGPT,到達(dá)了“故事的結(jié)尾”)。用只有一個(gè)具有8個(gè)頭和長度為128的特征向量的注意力塊的轉(zhuǎn)換器網(wǎng)似乎不可能使它學(xué)習(xí)括號(hào)語言的大部分知識(shí)。但是使用2個(gè)注意力塊,學(xué)習(xí)過程似乎會(huì)收斂,至少在給出了大約1000萬個(gè)示例后會(huì)收斂(正如轉(zhuǎn)換器網(wǎng)絡(luò)通常所遇到的那樣,給出更多的示例只會(huì)降低它的性能)。絡(luò)“非常確定”序列不能在此結(jié)束,這是好的,因?yàn)槿绻_實(shí)結(jié)供越來越長的“(”序列的最高概率完成情況,我們將得到以下結(jié)是的,在一定長度范圍內(nèi),網(wǎng)絡(luò)做得很好。但是,它開始失敗了。這是神經(jīng)網(wǎng)絡(luò)(或機(jī)器學(xué)習(xí)總體上)在“精確”情況下通常會(huì)出現(xiàn)的一種典型情況。人類“可以一眼解決”的情況,神經(jīng)網(wǎng)絡(luò)也可以解決。但是對(duì)于需要進(jìn)行“更算法化”的情況(例如顯式計(jì)算括號(hào)是否關(guān)閉),神經(jīng)網(wǎng)絡(luò)往往因某種原因“計(jì)算過于淺顯”,難以可靠地執(zhí)行。(順便說一句,即多的是一個(gè)“算法式的故事”。但在英語中,基于單詞的局部選擇和其他提示,能夠“猜測”適應(yīng)是更加現(xiàn)實(shí)的。是的,神經(jīng)網(wǎng)絡(luò)在這方面表現(xiàn)得更好,即使它可,其中有所有規(guī)則,這在某種程度上限制了神經(jīng)網(wǎng)絡(luò)必須學(xué)習(xí)的“多察是,像ChatGPT中那樣的神經(jīng)網(wǎng)絡(luò)的轉(zhuǎn)換器架構(gòu)似乎能樹狀的語法結(jié)構(gòu),這種結(jié)構(gòu)似乎以某種逼近方式存在于所有人類語言語法提供了一種對(duì)語言的限制。但顯然還有更多的限制。像“Inquisitiveelectronseat?傳統(tǒng)上并沒有總體理論。但可以ChatGPT個(gè)理論”,在此過程中受到來自網(wǎng)絡(luò)等數(shù)十億 (可能是有意義的)句子的影響。呢?好吧,有一小部分的理論已經(jīng)存在了兩千年,那就是邏不是X”(如“所有的魚都是藍(lán)色的。這不是藍(lán)色的,所以它不是魚?!?是合理的。就像異想天開地想象亞里士多德通過大量修辭的例子“機(jī)器學(xué)習(xí)式”地發(fā)現(xiàn)了三段,我們也可以想象,在ChatGPT的訓(xùn)練中,它通過查看網(wǎng)上的大量文本等方式能夠“發(fā)現(xiàn)三段論邏輯”。(是的,盡管因此可以期望ChatGPT生成包含基于三段論邏輯的而失敗。)但除了邏輯這個(gè)狹隘的例子,關(guān)于如何系統(tǒng)地構(gòu)建(或識(shí)別)即使是可能有意義的文bs疑有一個(gè)更簡單、更強(qiáng)大的故事。意義空間與語義運(yùn)動(dòng)規(guī)律ChatGPT任何一段文本都可以看作是在某種“語言特征空間”中的一個(gè)ChatGPT一段文本時(shí),這相當(dāng)于在語言特征空間中描義的文本?或者,可能存在某種“語義運(yùn)動(dòng)規(guī)律”,它定義或至少限制了語言點(diǎn)如何移動(dòng)以保持“有意義性”?什么樣的呢?以下是一個(gè)示例,展示了當(dāng)我們將這樣的特征空間投影到二維平面上時(shí),單詞(這里是普通名詞)可能如何排列:示例,它是基于代表植物和動(dòng)物的單詞。但是兩個(gè)例子的共以下是表示不同語法成分的單詞如何排列:當(dāng)然,一個(gè)單詞通常不只有“一個(gè)意思”(或者不一定對(duì)應(yīng)于一個(gè)詞性)。通過觀察包含單詞的句子在特征空間中的分布,我們通??梢浴皡^(qū)分出”不同的含義,比如這里的單詞“鶴”(是指鳥還是機(jī)器?)。在這個(gè)空間中識(shí)別什么樣的附加結(jié)構(gòu)?例如,是否存在某種“平行傳輸”的概個(gè)更為復(fù)雜的故事。例如,即使存在“語義運(yùn)動(dòng)規(guī)律”,最自然的表述方式(或者說最“變量”的方式)也不明顯。們展示了“軌跡”的幾個(gè)步驟——在每個(gè)步驟中,我們選擇ChatGPT認(rèn)為最有可能的單詞(“零溫度”情況)。但是我們也可以詢問在給定點(diǎn)上哪些單“可能出現(xiàn)在接下來的位置”:行為”來識(shí)別“類似于數(shù)學(xué)物理”的“語義運(yùn)動(dòng)規(guī)律”。但也許我們只是看了“錯(cuò)誤的變量”(或坐標(biāo)系),如果我們只看對(duì)的,我們會(huì)立即看到ChatGPT正在執(zhí)行類似于地理的運(yùn)動(dòng)規(guī)PT語義語法和計(jì)算語言的力量T則來描述如何組成這樣的語言。步。其中一種方法是不僅考慮語言的句法語法,而且還有語義語要“更細(xì)微的區(qū)分”。例語義概念”各有無數(shù)具體例子。但對(duì)于我們的語義語法,我們只需要一些基本規(guī)則,基本上是說“物體”可以“移動(dòng)”。關(guān)于這些可能如何工作有很多話可說(我之前已經(jīng)說過一些)。但在這里,我只會(huì)滿足于幾點(diǎn)說明,指出一些潛在的前進(jìn)路徑。實(shí)現(xiàn)(或者可能實(shí)現(xiàn))。例如,“大象去了月球”無疑會(huì)“通過”我們的語義語法,但它在我們的實(shí)際世界中肯定沒有實(shí)現(xiàn)過(至少還沒有)——但它完全適用于虛構(gòu)世界。模于從單詞構(gòu)造語言的方法。但語義語法必須涉及某種“世界模直到最近,我們可能認(rèn)為(人類)語言是描述我們“世界模型”的唯一通用方法。幾個(gè)類型的事物進(jìn)行形式化,特別是基于數(shù)學(xué)。但現(xiàn)在有了一種是的,這一直是我四十多年來的重大項(xiàng)目(現(xiàn)在體現(xiàn)在Wolfram語言中):開發(fā)一個(gè)以盡可能廣泛地談?wù)撐覀冴P(guān)心的事物和抽象概念。因此,我們有城領(lǐng)域做了大量工作。但過去,我們并沒有特別處理“日常話語”。在“Iboughttwopoundsofapples”中,我們可以輕松地表示(并進(jìn)行營養(yǎng)和其他計(jì)算)“兩磅蘋果”。但我們還沒有一個(gè)符號(hào)表示“我買了”的表示方法(目前還沒有)。這個(gè)“符號(hào)話語語言”,我們會(huì)用它做什么呢?我們可以開始生成“局部關(guān)于實(shí)際世界中可能存在或發(fā)生的事情(或者也許是一些一致的虛構(gòu)世界)。WolframLanguage許多事物的內(nèi)置計(jì)算知識(shí)。但對(duì)于一話語語言,我們必須構(gòu)建關(guān)于世界通用事物的其他“演算法”:如果一個(gè)物體從A到B,再從B到C,那么它就從A到C移動(dòng)了,等等。語言的情況下,我們可以使用它來做出“獨(dú)立的陳述”。但我們也可以關(guān)于世界的問題,類似“Wolfram|Alpha風(fēng)格”?;蛘呶覀兛梢杂盟鼇黻愂鑫摇钡氖虑?,可能還要加上一些外部的激活機(jī)制。或者我們可以用它來做出斷實(shí)際世界,也許是關(guān)于我們正在考慮的某個(gè)特定世界,無論是虛構(gòu)的還由其用戶之間的“社會(huì)契約”所定義。但是,計(jì)算語言由其本質(zhì),具有一定的為最終它所指定的可以“在計(jì)算機(jī)上無歧義地執(zhí)行”。人類語言通??梢匀萑桃欢ǖ哪:?例如,當(dāng)我們說“行星”時(shí),它是否包括系外行星等),但在計(jì)算語言中,普通符號(hào)語言的基本“本體論”?這并不容易。這也許是為什么自助(同時(shí),我們從物理項(xiàng)目和“Ruliad”的思想中獲得了一些“基本形而上學(xué)”)。象深刻的語義語法。但是,它的成功使我們有理由認(rèn)為,可以語言形式。而且,與我們迄今為止對(duì)ChatGPT的內(nèi)部所了解的內(nèi)容不論邏輯本質(zhì)上是一組有關(guān)用人類語言表達(dá)的陳述的規(guī)則。但是當(dāng)正式邏輯被發(fā)展出來時(shí)(是的,兩千年后),三段論邏輯的最初基本結(jié)構(gòu)現(xiàn)在可以用于構(gòu)建龐大的“形式塔”,其中包括現(xiàn)代數(shù)字,例如以文本形式表達(dá)的模式。但是一旦構(gòu)建了整個(gè)計(jì)算語言框架,義語法的構(gòu)建視為一種最終壓縮表示事物的方式。因?yàn)樗官|(zhì),而無需涉及存在于普通人類語言中的所有“措辭”。而我們可ChatGPT勢視為類似的東西:因?yàn)樗苍谀撤N程度上“深入到”能夠“以語義T算語言意味著類似ChatGPT的系統(tǒng)立即并基本地訪問可能不可簡化計(jì)算的終極其成為一個(gè)不僅能夠“生成合理的文本”,而且可以預(yù)期解決關(guān)于該文本是否實(shí)可能問題的系統(tǒng)。那么......ChatGPT在做什么,它為什么有效呢?ChatGPT基本概念在某種程度上相當(dāng)簡單。首先從網(wǎng)絡(luò)、圖書等人類創(chuàng)造的大量文續(xù)生成“類似于已經(jīng)訓(xùn)練過的”文本。個(gè)。神經(jīng)網(wǎng)絡(luò)的基本操作也非常簡單,基本上是對(duì)每個(gè)新單詞(或部分單詞)生成輸入時(shí),“將輸入通過其元素”(沒有任何循環(huán)等)。是,這個(gè)過程可以產(chǎn)生文本,它們成功地“類似于”網(wǎng)絡(luò)、圖書等上的內(nèi)是連貫的人類語言,而且“說出”使用它“閱讀”的內(nèi)容“跟隨它的提示”。它并不總是說出“全局意義上正確的”事情(或者對(duì)應(yīng)于正確的計(jì)算)——因?yàn)?沒有訪問olframAlphaChatGPT的具體工程使其非常引人注目。但是最終(至少在它能夠使用外部工具之ChatGPT些“連貫的文本線索”。但是令通常非常類似于人類產(chǎn)生的文本。正如我所討論的,這表明了一些至少在科學(xué)上非常重要的東西:人類語言(及其背后的思維模式)在其結(jié)構(gòu)上比我們想象更“類似于法律”。ChatGPT已經(jīng)暗示了這一點(diǎn)。但是我們可能可以通過語義語ChatGPT常令人印象深刻,結(jié)果通常非常類似于我們?nèi)祟悤?huì)產(chǎn)生的ChatGPT?其底層的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)最終型。當(dāng)我們?nèi)祟惿烧Z言時(shí),許多方面的過程似乎是相似的。當(dāng)涉及訓(xùn)練(也稱為學(xué)習(xí))大腦和當(dāng)前計(jì)算機(jī)的不同“硬件”時(shí)(以及也許一些未開發(fā)的算法思想),ChatGPT被迫使用一種策略,這種策略可能與大腦相比是相當(dāng)不同的(在ChatGPT不會(huì)內(nèi)部“循則更是如此。對(duì)于這些問題,大腦和像ChatGPT這樣的系統(tǒng)都需WolframLanguageChatGPT令人興奮。在某種程度上,它是一個(gè)很好的多簡單的計(jì)算元素可以做出令人驚訝和出乎意料的事情。但它也提供了我年中了解人類語言這個(gè)核心特征及其背后的思維過程的基本性質(zhì)和原則的動(dòng)力。感謝經(jīng)網(wǎng)絡(luò)的發(fā)展,已經(jīng)有大約43年了,在這段時(shí)間里,我與許多人交randriniBradKleeWolfram|Alpha是將計(jì)算知識(shí)超能力帶給ChatGPT的途徑ChatGPT和Wolfram|AlphaPT我已經(jīng)追蹤神經(jīng)網(wǎng)絡(luò)技術(shù)很長時(shí)間了(實(shí)際上大約43年)。即使是過去幾年的發(fā)也發(fā)現(xiàn)ChatGPT的表現(xiàn)非常出色。終于有了一個(gè)系統(tǒng),可以成功地生成幾乎任何而這些文本與人類寫作的非常相似。這令人印象深刻且有用。正如我在其事情。ChatGPT人類的主要工作方面取得了顯著成就,但并不如此“類人”。有些是更正式和結(jié)構(gòu)化的。實(shí)際上,我們文明的偉大成并創(chuàng)造但我也可以立即調(diào)用WolframLanguageWolframAlpha,讓我可以做出各種超越人方式。而且,重要的是,它不僅對(duì)我們?nèi)祟愔匾?,?duì)人類智ramAlphaWolframAlphaChatGPT為精確的符號(hào)化計(jì)算語言,應(yīng)用其計(jì)算。維,tGPTWolframAlphaChatGPTWolframAlpha方面所做的一切工作,終于有的東西。一個(gè)基本的例子ChatGPT是一個(gè)生成“跟隨模式”的語言輸出的系統(tǒng),這個(gè)模式是根據(jù)它的方式下展現(xiàn)出來。在語言層面上,它所產(chǎn)生的內(nèi)容總是“在統(tǒng)計(jì)學(xué)上合ChatGPT有內(nèi)在的內(nèi)置隨機(jī)性,所以如果你試一下,你可能不會(huì)得到相同的結(jié)果):收入。”確的。實(shí)際上,這個(gè)數(shù)字的正確值是0.621371,你可以用據(jù)它的結(jié)構(gòu)化和精心策劃的知識(shí)進(jìn)行計(jì)算。但有趣的是,我們可以考mAlphaChatGPTWolframAlpha個(gè)問題(也可以使用WebAPI等):但為什么ChatGPT首先會(huì)犯這個(gè)錯(cuò)誤呢?如果它在訓(xùn)練中某個(gè)地方(例如來自Web)了芝加哥和東京之間的特定距離,它當(dāng)然可以做對(duì)。但這是一種情況,神經(jīng)網(wǎng)絡(luò)容許多城市之間的距離示例中進(jìn)行推廣,但是這樣不足以做到正確;實(shí)際上需要一種—假設(shè)可能性——將其轉(zhuǎn)換為精確的計(jì)算語言(即Wolfram語言),在這種情況下:市的坐標(biāo)和計(jì)算它們之間距離的算法是Wolfram語言內(nèi)置的計(jì)算知識(shí)的一部分。是劃的內(nèi)容現(xiàn)在是一個(gè)龐大的不斷更新的數(shù)據(jù)集,實(shí)施(并經(jīng)常發(fā)明)方法、模型和算整個(gè)連貫的計(jì)算語言。更多例子ChatGPTWolframAlpha同的優(yōu)勢。但為了理解ChatGPT和人類一樣,在數(shù)學(xué)方面經(jīng)常難以應(yīng)對(duì)。答。但實(shí)際結(jié)果是錯(cuò)誤的:T種方法來“修復(fù)這個(gè)特定的漏洞”。但是,重要的是要意識(shí)到,基于生成語言的AI系統(tǒng)(如ChatGPT)的基本思想在處理有結(jié)構(gòu)的計(jì)算問題時(shí)并不換句話說,即使修補(bǔ)了幾乎無限數(shù)量的“漏洞”,也很難達(dá)到pha而且,正如Wolfram|Alpha告訴我們的那樣,它的結(jié)論是不正確的(因?yàn)閃olfram|Alpha在某種程度上已經(jīng)“知道”):每當(dāng)涉及具體的(例如定量)數(shù)據(jù),即使在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論