生成式人工智能基礎(chǔ) 課件 第14、15章 倫理與法律考量;面向AGI_第1頁
生成式人工智能基礎(chǔ) 課件 第14、15章 倫理與法律考量;面向AGI_第2頁
生成式人工智能基礎(chǔ) 課件 第14、15章 倫理與法律考量;面向AGI_第3頁
生成式人工智能基礎(chǔ) 課件 第14、15章 倫理與法律考量;面向AGI_第4頁
生成式人工智能基礎(chǔ) 課件 第14、15章 倫理與法律考量;面向AGI_第5頁
已閱讀5頁,還剩140頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

第1版·微課版生成式人工智能基礎(chǔ)第14章倫理與法律考量隨著AI不斷取得突破,LLM時代到來,一些潛在的隱患和道德倫理問題也逐步顯現(xiàn)出來。例如,AI在安全、隱私等方面存在一定風(fēng)險隱患:“換臉”技術(shù)有可能侵犯個人隱私,信息采集不當(dāng)會帶來數(shù)據(jù)泄露,算法漏洞加劇則認(rèn)知偏見……這說明,AI及其LLM不單具有技術(shù)屬性,還具有明顯的社會屬性。唯有綜合考慮經(jīng)濟(jì)、社會和環(huán)境等因素,才能更好地應(yīng)對AI技術(shù)帶來的機(jī)遇和挑戰(zhàn),推動其健康發(fā)展。第14章倫理與法律考量AI治理帶來很多倫理和法律課題,如何打造“負(fù)責(zé)任的AI”正變得愈發(fā)迫切和關(guān)鍵。必須加強(qiáng)AI發(fā)展的潛在風(fēng)險研判和防范,規(guī)范AI的發(fā)展,確保AI安全、可靠、可控。要建立健全保障AI健康發(fā)展的法律法規(guī)、制度體系、倫理道德。致力于依照“以人為本”的倫理原則推進(jìn)AI的發(fā)展,應(yīng)該將“社會責(zé)任AI”作為一個重要的研究方向。只有正確處理好人和機(jī)器的關(guān)系,才能更好地走向“人機(jī)混合”智能時代。第14章倫理與法律考量01AIGC面臨的倫理挑戰(zhàn)02數(shù)據(jù)隱私保護(hù)對策03AI倫理原則04LLM的知識產(chǎn)權(quán)保護(hù)目錄/CONTENTSPART01AIGC面臨的倫理挑戰(zhàn)華裔AI科學(xué)家李飛飛表示,現(xiàn)在迫切需要讓倫理成為AI研究與發(fā)展的根本組成部分。顯然,我們比歷史上任何時候都更加需要注重技術(shù)與倫理的平衡。因為一方面技術(shù)意味著速度和效率,應(yīng)發(fā)揮好技術(shù)的無限潛力,善用技術(shù)追求效率,創(chuàng)造社會和經(jīng)濟(jì)效益。另一方面,人性意味著深度和價值,要追求人性,維護(hù)人類價值和自我實現(xiàn),避免技術(shù)發(fā)展和應(yīng)用突破人類倫理底線。只有保持警醒和敬畏,在以效率為準(zhǔn)繩的“技術(shù)算法”和以倫理為準(zhǔn)繩的“人性算法”之間實現(xiàn)平衡,才能確保“科技向善”。14.1AIGC面臨的倫理挑戰(zhàn)AIGC技術(shù)的發(fā)展和應(yīng)用帶來了顯著的創(chuàng)新和便利,但同時也伴隨著一系列復(fù)雜的倫理挑戰(zhàn)。以下是AIGC所面臨的幾個主要倫理問題:(1)工作與就業(yè)沖擊:AIGC技術(shù)的廣泛應(yīng)用可能導(dǎo)致某些行業(yè)和職業(yè)的人力需求減少,引發(fā)對失業(yè)和社會不平等的擔(dān)憂。人們擔(dān)心AI可能會取代人類在內(nèi)容創(chuàng)作、數(shù)據(jù)分析、客戶服務(wù)等多個領(lǐng)域的工作崗位。(2)原創(chuàng)性與版權(quán)爭議:由AI生成的內(nèi)容在版權(quán)歸屬、原創(chuàng)性認(rèn)定上存在法律空白和爭議。誰應(yīng)該為AI創(chuàng)作的作品享有版權(quán)?是開發(fā)AI的公司、操作AI的用戶,還是AI本身?這挑戰(zhàn)了現(xiàn)有的知識產(chǎn)權(quán)體系。14.1AIGC面臨的倫理挑戰(zhàn)(3)真實性與信任危機(jī):AIGC技術(shù)可以生成高度逼真的文本、圖像、音頻和視頻,這可能被用于制造假新聞、深度偽造,進(jìn)而影響公眾輿論、誤導(dǎo)群眾,損害媒體公信力和個人隱私。(4)責(zé)任歸屬:當(dāng)AIGC導(dǎo)致負(fù)面影響,如錯誤信息傳播、侵犯個人名譽(yù)權(quán)時,責(zé)任應(yīng)該如何界定?是開發(fā)者、使用者,還是維護(hù)者?這需要明確的法律框架和道德準(zhǔn)則。14.1AIGC面臨的倫理挑戰(zhàn)(5)人類智能與尊嚴(yán):隨著AIGC技術(shù)的智能化水平提升,可能引發(fā)對人類智能價值和地位的討論。人們擔(dān)憂過度依賴AI會削弱人類創(chuàng)造力、批判性思維能力,甚至影響人類自我認(rèn)同。(6)算法偏見與公平性:AIGC系統(tǒng)基于訓(xùn)練數(shù)據(jù)生成內(nèi)容,如果訓(xùn)練數(shù)據(jù)含有偏見,生成的內(nèi)容也可能帶有偏見,這會加劇社會不公,比如性別、種族歧視等問題。14.1AIGC面臨的倫理挑戰(zhàn)(7)隱私保護(hù):AIGC在處理個人數(shù)據(jù)時,如何確保數(shù)據(jù)的安全和隱私,避免未經(jīng)許可的信息泄露或濫用,是另一個重要倫理議題。(8)社會實驗倫理:利用AIGC進(jìn)行的社會實驗,尤其是當(dāng)涉及模擬人類行為、心理狀態(tài)時,需要嚴(yán)格遵守倫理規(guī)范,防止對參與者造成傷害或侵犯其權(quán)利。14.1AIGC面臨的倫理挑戰(zhàn)解決這些倫理挑戰(zhàn)需要跨學(xué)科合作,包括技術(shù)開發(fā)者、法律專家、倫理學(xué)家、社會科學(xué)家以及政策制定者的共同努力,通過制定合理的政策、法規(guī)和技術(shù)標(biāo)準(zhǔn),引導(dǎo)AIGC技術(shù)健康發(fā)展,確保技術(shù)進(jìn)步的同時保護(hù)人類價值和社會福祉。14.1AIGC面臨的倫理挑戰(zhàn)PART02數(shù)據(jù)隱私保護(hù)對策數(shù)據(jù)產(chǎn)業(yè)面臨的倫理問題包括數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題、隱私權(quán)和自主權(quán)的侵犯問題、數(shù)據(jù)利用失衡問題,這些問題影響了大數(shù)據(jù)的生產(chǎn)、采集、存儲、交易流轉(zhuǎn)和開發(fā)使用全過程。相較于傳統(tǒng)隱私和互聯(lián)網(wǎng)發(fā)展初期,大數(shù)據(jù)技術(shù)的廣泛運(yùn)用使隱私的概念和范圍發(fā)生了很大的變化,呈現(xiàn)數(shù)據(jù)化、價值化的新特點。數(shù)據(jù)隱私保護(hù)倫理問題的解決需要從責(zé)任倫理的角度出發(fā),關(guān)注技術(shù)帶來的風(fēng)險,倡導(dǎo)多元參與主體的共同努力,在遵守隱私保護(hù)倫理準(zhǔn)則的基礎(chǔ)上,加強(qiáng)道德倫理教育和健全道德倫理約束機(jī)制。14.2數(shù)據(jù)隱私保護(hù)對策由于跨境數(shù)據(jù)流動劇增、數(shù)據(jù)經(jīng)濟(jì)價值凸顯、個人隱私危機(jī)爆發(fā)等多方面因素,數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)已成為數(shù)據(jù)和AI產(chǎn)業(yè)發(fā)展遭遇的關(guān)鍵問題。數(shù)據(jù)的跨境流動是不可避免的,但這也給國家安全帶來了威脅,數(shù)據(jù)的主權(quán)問題由此產(chǎn)生。數(shù)據(jù)主權(quán)是指國家對其政權(quán)管轄地域內(nèi)的數(shù)據(jù)享有生成、傳播、管理、控制和利用的權(quán)力。數(shù)據(jù)主權(quán)是國家主權(quán)在信息化、數(shù)字化和全球化發(fā)展趨勢下新的表現(xiàn)形式,是各國在大數(shù)據(jù)時代維護(hù)國家主權(quán)和獨立,反對數(shù)據(jù)壟斷和霸權(quán)主義的必然要求,是國家安全的保障。14.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)權(quán)包括機(jī)構(gòu)數(shù)據(jù)權(quán)和個人數(shù)據(jù)權(quán)。機(jī)構(gòu)數(shù)據(jù)權(quán)是企業(yè)和其他機(jī)構(gòu)對個人數(shù)據(jù)的采集權(quán)和使用權(quán),是企業(yè)的核心競爭力。個人數(shù)據(jù)權(quán)是指個人擁有對自身數(shù)據(jù)的控制權(quán),以保護(hù)自身隱私信息不受侵犯的權(quán)利,也是個人的基本權(quán)利。個人在互聯(lián)網(wǎng)上產(chǎn)生了大量的數(shù)據(jù),這些數(shù)據(jù)與個人的隱私密切相關(guān),個人對這些數(shù)據(jù)擁有財產(chǎn)權(quán)。14.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)財產(chǎn)權(quán)是數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)的核心內(nèi)容。以大數(shù)據(jù)為主的信息技術(shù)賦予了數(shù)據(jù)以財產(chǎn)屬性,數(shù)據(jù)財產(chǎn)是指將數(shù)據(jù)符號固定于介質(zhì)之上,具有一定的價值,能夠為人們所感知和利用的一種新型財產(chǎn)。數(shù)據(jù)財產(chǎn)包含形式要素和實質(zhì)要素兩個部分,數(shù)據(jù)符號所依附的介質(zhì)為其形式要素,數(shù)據(jù)財產(chǎn)所承載的有價值的信息為其實質(zhì)要素。2001年的世界經(jīng)濟(jì)論壇將個人數(shù)據(jù)指定為“新資產(chǎn)類別”,數(shù)據(jù)成為一種資產(chǎn),并且像商品一樣被交易。14.2.1數(shù)據(jù)主權(quán)和數(shù)據(jù)權(quán)問題數(shù)據(jù)利用的失衡主要體現(xiàn)在兩個方面。(1)數(shù)據(jù)的利用率較低。隨著網(wǎng)絡(luò)應(yīng)用的發(fā)展,每天都有海量的數(shù)據(jù)產(chǎn)生,全球數(shù)據(jù)規(guī)模呈指數(shù)級增長,但是,一項針對大型企業(yè)的調(diào)研結(jié)果顯示,企業(yè)大數(shù)據(jù)的利用率僅在12%左右。就掌握大量數(shù)據(jù)的政府而言,其數(shù)據(jù)的利用率更低。14.2.2數(shù)據(jù)利用失衡問題(2)數(shù)字鴻溝現(xiàn)象日益顯著。數(shù)字鴻溝束縛數(shù)據(jù)流通,導(dǎo)致數(shù)據(jù)利用水平較低。大數(shù)據(jù)的“政用”“民用”和“工用”相對于大數(shù)據(jù)在商用領(lǐng)域的發(fā)展,無論技術(shù)、人才還是數(shù)據(jù)規(guī)模都有巨大差距。現(xiàn)階段大數(shù)據(jù)應(yīng)用較為成熟的行業(yè)是電商、電信和金融領(lǐng)域,醫(yī)療、能源、教育等領(lǐng)域則處于起步階段。由于大數(shù)據(jù)在商用領(lǐng)域產(chǎn)生巨大利益,數(shù)據(jù)資源、社會資源、人才資源均向其傾斜,涉及經(jīng)濟(jì)利益較弱的領(lǐng)域,市場占比少。在商用領(lǐng)域內(nèi),優(yōu)勢的行業(yè)或優(yōu)勢的企業(yè)也往往占據(jù)了大量的大數(shù)據(jù)資源。14.2.2數(shù)據(jù)利用失衡問題大數(shù)據(jù)對于改善民生、輔助政府決策、提升工業(yè)信息化水平、推動社會進(jìn)步可以起到巨大的作用,因此大數(shù)據(jù)的發(fā)展應(yīng)該更加均衡,這也符合國家大數(shù)據(jù)戰(zhàn)略中服務(wù)經(jīng)濟(jì)社會發(fā)展和人民生活改善的方向。14.2.2數(shù)據(jù)利用失衡問題構(gòu)建隱私保護(hù)倫理的準(zhǔn)則包括:(1)權(quán)利與義務(wù)對等。數(shù)據(jù)生產(chǎn)者作為數(shù)據(jù)生命周期中的堅實基礎(chǔ),既有為大數(shù)據(jù)技術(shù)發(fā)展提供數(shù)據(jù)源和保護(hù)個體隱私的義務(wù),又有享受大數(shù)據(jù)技術(shù)帶來便利與利益的權(quán)利。數(shù)據(jù)搜集者作為數(shù)據(jù)生產(chǎn)周期的中間者,他們既可以享有在網(wǎng)絡(luò)公共空間中搜集數(shù)據(jù)以得到利益的權(quán)利,又負(fù)有在數(shù)據(jù)搜集階段保護(hù)用戶隱私的義務(wù)。數(shù)據(jù)使用者作為整個數(shù)據(jù)生命周期中利益鏈條上游部分的主體,他們在享有了豐厚利潤的同時,也負(fù)有推進(jìn)整個社會發(fā)展、造福人類和保護(hù)個人隱私的義務(wù)。14.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(2)自由與監(jiān)管適度。主體的意志自由正在因嚴(yán)密的監(jiān)控和隱私泄露所導(dǎo)致的個性化預(yù)測而受到禁錮。而個人只有在具有規(guī)則的社會中才能談自主、自治和自由。因此,在解決隱私保護(hù)的倫理問題時,構(gòu)建一定的規(guī)則與秩序,在維護(hù)社會安全的前提下,給予公眾適度的自由,也是隱私保護(hù)倫理準(zhǔn)則所必須關(guān)注的重點。所以要平衡監(jiān)管與自由兩邊的砝碼,讓政府與企業(yè)更注重個人隱私的保護(hù),個人加強(qiáng)保護(hù)隱私的能力,防止沉迷于網(wǎng)絡(luò),努力做到在保持社會良好發(fā)展的同時,也不忽視公眾對個人自由的訴求。14.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(3)誠信與公正統(tǒng)一。因豐厚經(jīng)濟(jì)利潤的刺激和社交活動在虛擬空間的無限延展,使得互聯(lián)網(wǎng)用戶逐漸喪失對基本準(zhǔn)則誠信的遵守。例如,利用黑客技術(shù)竊取用戶隱私信息,通過不道德商業(yè)行為攫取更多利益等。在社會范圍內(nèi)建立誠信體系,營造誠信氛圍,不僅有利于隱私保護(hù)倫理準(zhǔn)則的構(gòu)建,更是對個人行為、企業(yè)發(fā)展、政府建設(shè)的內(nèi)在要求。14.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則(4)創(chuàng)新與責(zé)任一致。在構(gòu)建隱私保護(hù)的倫理準(zhǔn)則時,可以引入“負(fù)責(zé)任創(chuàng)新”理念,對大數(shù)據(jù)技術(shù)的創(chuàng)新和設(shè)計過程進(jìn)行全面的綜合考量與評估,使大數(shù)據(jù)技術(shù)的相關(guān)信息能被公眾所理解,真正將大數(shù)據(jù)技術(shù)的“創(chuàng)新”與“負(fù)責(zé)任”相結(jié)合,以一種開放、包容、互動的態(tài)度來看待技術(shù)的良性發(fā)展。14.2.3構(gòu)建隱私保護(hù)倫理準(zhǔn)則健全隱私保護(hù)的道德倫理約束機(jī)制,包括:(1)建立完善的隱私保護(hù)道德自律機(jī)制。個人自覺保護(hù)隱私,首先應(yīng)該清楚意識到個人信息安全的重要性,做到重視自我隱私,從源頭切斷個人信息泄露的可能。政府、組織和企業(yè)可以通過不斷創(chuàng)新與完善隱私保護(hù)技術(shù)的方式讓所有數(shù)據(jù)行業(yè)從業(yè)者都認(rèn)識到隱私保護(hù)的重要性,并在數(shù)據(jù)使用中自覺采取隱私保護(hù)技術(shù),以免信息泄露。企業(yè)還可以通過建立行業(yè)自律公約的方式來規(guī)范自我道德行為,以統(tǒng)一共識的達(dá)成來約束自身行為。14.2.4健全道德倫理約束機(jī)制(2)強(qiáng)化社會監(jiān)督與道德評價功能。建立由多主體參與的監(jiān)督體系來實時監(jiān)控、預(yù)防侵犯隱私行為的發(fā)生,這在公共事務(wù)上體現(xiàn)為一種社會合力,代表著社會生活中一部分人的發(fā)聲,具有較強(qiáng)的制約力和規(guī)范力,是完善隱私保護(hù)道德倫理約束機(jī)制的重要一步。其次,健全道德倫理約束機(jī)制還可以發(fā)揮道德的評價功能,讓道德輿論的評價來調(diào)整社會關(guān)系,規(guī)范人們的行為。在隱私保護(hù)倫理的建設(shè)過程中,運(yùn)用社會倫理的道德評價,可以強(qiáng)化人們的道德意志,增強(qiáng)他們遵守道德規(guī)范的主動性與自覺性,將外在的道德規(guī)范轉(zhuǎn)化為人們的自我道德觀念和道德行為準(zhǔn)則。14.2.4健全道德倫理約束機(jī)制PART03AI倫理原則AI發(fā)展不僅僅是一場席卷全球的科技革命,也是一場對人類文明帶來前所未有深遠(yuǎn)影響的社會倫理實驗。在應(yīng)用層面,AI已經(jīng)開始用于解決社會問題,各種服務(wù)機(jī)器人、輔助機(jī)器人、陪伴機(jī)器人、教育機(jī)器人等社會機(jī)器人和智能應(yīng)用軟件應(yīng)運(yùn)而生,各種倫理問題隨之產(chǎn)生。機(jī)器人倫理與人因工程相關(guān),涉及人體工程學(xué)、生物學(xué)和人機(jī)交互,需要以人為中心的機(jī)器智能設(shè)計。14.3AI倫理原則隨著推理、社會機(jī)器人進(jìn)入家庭,如何保護(hù)隱私、滿足個性都要以人為中心而不是以機(jī)器為中心設(shè)計。過度依賴社會機(jī)器人將帶來一系列的家庭倫理問題。為了避免AI以機(jī)器為中心,需要法律和倫理研究參與其中,而相關(guān)倫理與哲學(xué)研究也要對技術(shù)有必要的了解。14.3AI倫理原則需要制定AI的職業(yè)倫理準(zhǔn)則,來達(dá)到下列目標(biāo):(1)為防止AI技術(shù)的濫用設(shè)立紅線;(2)提高職業(yè)人員的責(zé)任心和職業(yè)道德水準(zhǔn);(3)確保算法系統(tǒng)的安全可靠;(4)使算法系統(tǒng)的可解釋性成為未來引導(dǎo)設(shè)計的一個基本方向;(5)使倫理準(zhǔn)則成為AI從業(yè)者的工作基礎(chǔ);(6)提升職業(yè)人員的職業(yè)抱負(fù)和理想。14.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)AI的職業(yè)倫理準(zhǔn)則至少應(yīng)包括下列幾個方面:(1)確保AI更好地造福于社會;(2)在強(qiáng)化人類中心主義的同時,達(dá)到走出人類中心主義的目標(biāo),形成雙向互進(jìn)關(guān)系;(3)避免AI對人類造成任何傷害;(4)確保AI體位于人類可控范圍之內(nèi);(5)提升AI的可信性;14.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)(6)確保AI的可問責(zé)性和透明性;(7)維護(hù)公平;(8)尊重隱私、謹(jǐn)慎應(yīng)用;(9)提高職業(yè)技能與提升道德修養(yǎng)并行發(fā)展。14.3.1職業(yè)倫理準(zhǔn)則的目標(biāo)2018年7月11日,中國AI產(chǎn)業(yè)創(chuàng)新發(fā)展聯(lián)盟發(fā)布了《AI創(chuàng)新發(fā)展道德倫理宣言》(簡稱《宣言》)?!缎浴烦诵蜓灾?,一共有六個部分,分別是AI系統(tǒng),AI與人類的關(guān)系,AI與具體接觸人員的道德倫理要求,以及AI的應(yīng)用和未來發(fā)展的方向,最后是附則。發(fā)布“AI創(chuàng)新發(fā)展道德倫理宣言”,是為了宣揚(yáng)涉及AI創(chuàng)新、應(yīng)用和發(fā)展的基本準(zhǔn)則,以期無論何種身份的人都能經(jīng)常銘記本宣言精神,理解并尊重發(fā)展AI的初衷,使其傳達(dá)的價值與理念得到普遍認(rèn)可與遵行。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出:(1)鑒于全人類固有道德、倫理、尊嚴(yán)及人格之權(quán)利,創(chuàng)新、應(yīng)用和發(fā)展AI技術(shù)當(dāng)以此為根本基礎(chǔ);(2)鑒于人類社會發(fā)展的最高階段為人類解放和人的自由全面發(fā)展,AI技術(shù)研發(fā)當(dāng)以此為最終依歸,進(jìn)而促進(jìn)全人類福祉;(3)鑒于AI技術(shù)對人類社會既有觀念、秩序和自由意志的挑戰(zhàn)巨大,且發(fā)展前景充滿未知,對AI技術(shù)的創(chuàng)新應(yīng)當(dāng)設(shè)置倡導(dǎo)性與禁止性的規(guī)則,這些規(guī)則本身應(yīng)當(dāng)凝聚不同文明背景下人群的基本價值共識;14.3.2創(chuàng)新發(fā)展道德倫理宣言(4)鑒于AI技術(shù)具有把人類從繁重體力和腦力勞動束縛中解放的潛力,縱然未來的探索道路上出現(xiàn)曲折與反復(fù),也不應(yīng)停止AI創(chuàng)新發(fā)展造福人類的步伐。14.3.2創(chuàng)新發(fā)展道德倫理宣言建設(shè)AI系統(tǒng),要做到:(1)AI系統(tǒng)基礎(chǔ)數(shù)據(jù)應(yīng)當(dāng)秉持公平性與客觀性,摒棄帶有偏見的數(shù)據(jù)和算法,以杜絕可能的歧視性結(jié)果。(2)AI系統(tǒng)的數(shù)據(jù)采集和使用應(yīng)當(dāng)尊重隱私權(quán)等一系列人格權(quán)利,以維護(hù)權(quán)利所承載的人格利益。(3)AI系統(tǒng)應(yīng)當(dāng)有相應(yīng)的技術(shù)風(fēng)險評估機(jī)制,保持對潛在危險的前瞻性控制能力。(4)AI系統(tǒng)所具有的自主意識程度應(yīng)當(dāng)受到科學(xué)技術(shù)水平和道德、倫理、法律等人文價值的共同評價。14.3.2創(chuàng)新發(fā)展道德倫理宣言為明確AI與人類的關(guān)系,《宣言》指出:(1)AI的發(fā)展應(yīng)當(dāng)始終以造福人類為宗旨。牢記這一宗旨,是防止AI的巨大優(yōu)勢轉(zhuǎn)為人類生存發(fā)展巨大威脅的關(guān)鍵所在。(2)無論AI的自主意識能力進(jìn)化到何種階段,都不能改變其由人類創(chuàng)造的事實。不能將AI的自主意識等同于人類特有的自由意志,模糊這兩者之間的差別可能抹殺人類自身特有的人權(quán)屬性與價值。(3)當(dāng)AI的設(shè)定初衷與人類整體利益或個人合法利益相悖時,AI應(yīng)當(dāng)無條件停止或暫停工作進(jìn)程,以保證人類整體利益的優(yōu)先性。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,AI具體接觸人員的道德倫理要求是:(1)AI具體接觸人員是指居于主導(dǎo)地位、可以直接操縱或影響AI系統(tǒng)和技術(shù),使之按照預(yù)設(shè)產(chǎn)生某種具體功效的人員,包括但不限于AI的研發(fā)人員和使用者。(2)AI的研發(fā)者自身應(yīng)當(dāng)具備正確的倫理道德意識,同時將這種意識貫徹于研發(fā)全過程,確保其塑造的AI自主意識符合人類社會主流道德倫理要求。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)AI產(chǎn)品的使用者應(yīng)當(dāng)遵循產(chǎn)品的既有使用準(zhǔn)則,除非出于改善產(chǎn)品本身性能的目的,否則不得擅自變動、篡改原有的設(shè)置,使之背離創(chuàng)新、應(yīng)用和發(fā)展初衷,以致破壞人類文明及社會和諧。(4)AI從業(yè)人員可以根據(jù)自身經(jīng)驗,闡述其對產(chǎn)品與技術(shù)的認(rèn)識。此種闡述應(yīng)當(dāng)本著誠實信用的原則,保持理性與客觀,不得誘導(dǎo)公眾的盲目熱情或故意加劇公眾的恐慌情緒。14.3.2創(chuàng)新發(fā)展道德倫理宣言針對AI的應(yīng)用,《宣言》指出:(1)AI發(fā)展迅速,但也伴隨著各種不確定性。在沒有確定完善的技術(shù)保障之前,在某些失誤成本過于沉重的領(lǐng)域,AI的應(yīng)用和推廣應(yīng)當(dāng)審慎而科學(xué)。(2)AI可以為決策提供輔助。但是AI本身不能成為決策的主體,特別是國家公共事務(wù)領(lǐng)域,AI不能行使國家公權(quán)力。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)AI的優(yōu)勢使其在軍事領(lǐng)域存在巨大應(yīng)用潛力。出于對人類整體福祉的考慮,應(yīng)當(dāng)本著人道主義精神,克制在進(jìn)攻端武器運(yùn)用AI的沖動。(4)AI不應(yīng)成為侵犯合法權(quán)益的工具,任何運(yùn)用AI從事犯罪活動的行為,都應(yīng)當(dāng)受到法律的制裁和道義的譴責(zé)。(5)AI的應(yīng)用可以解放人類在腦力和體力層面的部分束縛,在條件成熟時,應(yīng)當(dāng)鼓勵A(yù)I在相應(yīng)領(lǐng)域發(fā)揮幫助人類自由發(fā)展的作用。14.3.2創(chuàng)新發(fā)展道德倫理宣言《宣言》指出,當(dāng)前發(fā)展AI的方向主要是:(1)探索產(chǎn)、學(xué)、研、用、政、金合作機(jī)制,推動AI核心技術(shù)創(chuàng)新與產(chǎn)業(yè)發(fā)展。特別是推動上述各方資源結(jié)合,建立長期和深層次的合作機(jī)制,針對AI領(lǐng)域的關(guān)鍵核心技術(shù)難題開展聯(lián)合攻關(guān)。(2)制定AI產(chǎn)業(yè)發(fā)展標(biāo)準(zhǔn),推動AI產(chǎn)業(yè)協(xié)同發(fā)展。推動AI產(chǎn)業(yè)從數(shù)據(jù)規(guī)范、應(yīng)用接口以及性能檢測等方面的標(biāo)準(zhǔn)體系制定,為消費者提供更好的服務(wù)與體驗。14.3.2創(chuàng)新發(fā)展道德倫理宣言(3)打造共性技術(shù)支撐平臺,構(gòu)建AI產(chǎn)業(yè)生態(tài)。推動AI領(lǐng)域龍頭企業(yè)牽頭建設(shè)平臺,為AI在社會生活各個領(lǐng)域的創(chuàng)業(yè)創(chuàng)新者提供更好支持。(4)健全AI法律法規(guī)體系。通過不斷完善AI相關(guān)法律法規(guī),在拓展人類AI應(yīng)用能力的同時,避免AI對社會和諧的沖擊,尋求AI技術(shù)創(chuàng)新、產(chǎn)業(yè)發(fā)展與道德倫理的平衡點。AI的發(fā)展在深度與廣度上都是難以預(yù)測的。根據(jù)新的發(fā)展形勢,對本宣言的任何修改都不能違反人類的道德倫理法律準(zhǔn)則,不得損害人類的尊嚴(yán)和整體福祉。14.3.2創(chuàng)新發(fā)展道德倫理宣言2019年,歐盟AI高級別專家組正式發(fā)布了“可信賴的AI倫理準(zhǔn)則”。根據(jù)準(zhǔn)則,可信賴的AI應(yīng)該是:(1)合法——尊重所有適用的法律法規(guī)。(2)合乎倫理——尊重倫理原則和價值觀。(3)穩(wěn)健——既從技術(shù)角度考慮,又考慮到其社會環(huán)境。14.3.3歐盟可信賴的倫理準(zhǔn)則該指南提出了未來AI系統(tǒng)應(yīng)滿足的7大原則,以便被認(rèn)為是可信的。并給出一份具體的評估清單,旨在協(xié)助核實每項要求的適用情況。(1)人類代理和監(jiān)督:AI不應(yīng)該踐踏人類的自主性。人們不應(yīng)該被AI系統(tǒng)所操縱或脅迫,應(yīng)該能夠干預(yù)或監(jiān)督軟件所做的每一個決定;(2)技術(shù)穩(wěn)健性和安全性:AI應(yīng)該是安全而準(zhǔn)確的,它不應(yīng)該輕易受到外部攻擊(例如對抗性例子)的破壞,并且應(yīng)該是相當(dāng)可靠的;(3)隱私和數(shù)據(jù)管理:AI系統(tǒng)收集的個人數(shù)據(jù)應(yīng)該是安全的,并且能夠保護(hù)個人隱私。它不應(yīng)該被任何人訪問,也不應(yīng)該輕易被盜;14.3.3歐盟可信賴的倫理準(zhǔn)則(4)透明度:用于創(chuàng)建AI系統(tǒng)的數(shù)據(jù)和算法應(yīng)該是可訪問的,軟件所做的決定應(yīng)該“為人類所理解和追蹤”。換句話說,操作者應(yīng)該能夠解釋他們的AI系統(tǒng)所做的決定;(5)多樣性、無歧視、公平:AI應(yīng)向所有人提供服務(wù),不分年齡、性別、種族或其他特征。同樣,AI系統(tǒng)不應(yīng)在這些方面有偏見;(6)環(huán)境和社會福祉:AI系統(tǒng)應(yīng)該是可持續(xù)的(即它們應(yīng)該對生態(tài)負(fù)責(zé)),并能“促進(jìn)積極的社會變革”;(7)問責(zé)制:AI系統(tǒng)應(yīng)該是可審計的,并由現(xiàn)有的企業(yè)告密者保護(hù)機(jī)制覆蓋。系統(tǒng)的負(fù)面影響應(yīng)事先得到承認(rèn)和報告。14.3.3歐盟可信賴的倫理準(zhǔn)則這些原則中有些條款的措辭比較抽象,很難從客觀意義上進(jìn)行評估。這些指導(dǎo)方針不具有法律約束力,但可以影響歐盟起草的任何未來立法。歐盟發(fā)布的報告還包括了一份被稱為“可信賴AI評估列表”,幫助專家們找出AI軟件中的任何潛在弱點或危險。此列表包括以下問題:“你是否驗證了系統(tǒng)在意外情況和環(huán)境中的行為方式?”以及“你評估了數(shù)據(jù)集中數(shù)據(jù)的類型和范圍了嗎?”此次出臺的指導(dǎo)方針“為推動AI的道德和責(zé)任制定了全球標(biāo)準(zhǔn)?!?4.3.3歐盟可信賴的倫理準(zhǔn)則PART04LLM的知識產(chǎn)權(quán)保護(hù)AI的技術(shù)發(fā)展與知識產(chǎn)權(quán)歸屬的邊界正變得日益模糊。通過大量公開數(shù)據(jù)進(jìn)行訓(xùn)練,從而讓模型學(xué)習(xí)具有生成產(chǎn)物的能力,這就是生成式AI的構(gòu)建方式。這些數(shù)據(jù)包括文字、畫作和代碼,模型正是從海量的數(shù)據(jù)中獲得的生成同樣產(chǎn)物的能力。隨著GAI的快速崛起,在重塑行業(yè)、賦能人類工作生活的同時,也引發(fā)了版權(quán)制度層面的一系列新的挑戰(zhàn)。14.4LLM的知識產(chǎn)權(quán)保護(hù)Midjourney是一款著名和強(qiáng)大的AI繪畫工具,它為用戶提供了各種創(chuàng)意的繪圖功能,可以是文生圖或者圖生圖。圖14-1真想知道插畫師用用了哪些關(guān)鍵詞實現(xiàn)了這幅作品14.4.1LLM的訴訟案例盡管Midjourney面臨嚴(yán)重的版權(quán)問題,但其創(chuàng)始人大衛(wèi)·霍爾茨針對AI對創(chuàng)意工作的影響有自己的看法,他強(qiáng)調(diào)Midjourney的目標(biāo)是拓展人類的想象力,幫助用戶快速產(chǎn)生創(chuàng)意,為專業(yè)用戶提供概念設(shè)計的支持,而不是取代藝術(shù)家。他認(rèn)為AI技術(shù)的發(fā)展將促使市場朝著更高質(zhì)量、更有創(chuàng)意、更多樣化和更深度的內(nèi)容方向發(fā)展。AI技術(shù)的出現(xiàn)對那些雄心勃勃的藝術(shù)家的未來影響仍有待觀察,但藝術(shù)工作本身是有趣的,AI技術(shù)應(yīng)該服務(wù)于讓人們自由發(fā)展更有回報、更有趣的工作,而不是取代藝術(shù)家的創(chuàng)作過程。14.4.1LLM的訴訟案例藝術(shù)家是否愿意將作品納入AI訓(xùn)練模型、是否會對版權(quán)問題產(chǎn)生擔(dān)憂等議題值得深入思考。隨著AI技術(shù)的發(fā)展,可能會對藝術(shù)創(chuàng)作帶來新的影響和挑戰(zhàn)。然而,尊重藝術(shù)家的創(chuàng)作意愿,維護(hù)版權(quán)法律,是保障藝術(shù)創(chuàng)作多樣性和質(zhì)量的重要途徑。通過合理規(guī)范和監(jiān)管,AI技術(shù)可以更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,實現(xiàn)技術(shù)與人文的和諧共生。14.4.1LLM的訴訟案例在藝術(shù)創(chuàng)作領(lǐng)域,AI技術(shù)作為一種輔助工具,有助于提高創(chuàng)作效率和創(chuàng)意產(chǎn)出,但無法替代藝術(shù)家的獨特創(chuàng)作能力和靈感。對于藝術(shù)家來說,關(guān)鍵在于如何運(yùn)用和平衡AI技術(shù),創(chuàng)作出更具深度和獨特性的作品,從而實現(xiàn)藝術(shù)創(chuàng)作與科技創(chuàng)新的有機(jī)結(jié)合。Midjourney的未來發(fā)展方向也需要更多的思考和探討,以確保AI技術(shù)的應(yīng)用能夠更好地服務(wù)于藝術(shù)創(chuàng)作和創(chuàng)作者,促進(jìn)藝術(shù)的多樣性和創(chuàng)新性。14.4.1LLM的訴訟案例(1)“訓(xùn)練”類技術(shù)的首次法律訴訟。2022年11月3日和10日,程序員兼律師馬修·巴特里克等人向美國加州北區(qū)聯(lián)法院遞交了一份集體訴訟起訴書,指控OpenAI和微軟使用他們貢獻(xiàn)的代碼訓(xùn)練AI編程工具Copilot及Codex,要求法院批準(zhǔn)90億美元(約649億人民幣)的法定損害賠償金。14.4.1LLM的訴訟案例根據(jù)集體訴訟文件,每當(dāng)Copilot提供非法輸出,它就違反第1202條三次,即沒有①注明出處,②版權(quán)通知,③許可條款的許可材料。因為兩工具使用GitHub上的開源軟件用于訓(xùn)練并輸出,但并未按照要求進(jìn)行致謝,版權(quán)聲明和附上許可證,甚至標(biāo)識錯誤,違反了上千萬軟件開發(fā)者的許可協(xié)議。原告進(jìn)一步指稱被告將其敏感個人數(shù)據(jù)一并納入Copilot中向他人提供,構(gòu)成違反開源許可證、欺詐、違反GitHub服務(wù)條款隱私政策等。14.4.1LLM的訴訟案例巴特里克強(qiáng)調(diào):“我們反對的絕不是AI輔助編程工具,而是微軟在Copilot當(dāng)中的種種具體行徑。微軟完全可以把Copilot做得更開發(fā)者友好——比如邀請大家自愿參加,或者由編程人員有償對訓(xùn)練語料庫做出貢獻(xiàn)。但截至目前,口口聲聲自稱熱愛開源的微軟根本沒做過這方面的嘗試。另外,如果大家覺得Copilot效果挺好,那主要也是因為底層開源訓(xùn)練數(shù)據(jù)的質(zhì)量過硬。Copilot其實是在從開源項目那邊吞噬能量,而一旦開源活力枯竭,Copilot也將失去發(fā)展的依憑?!?4.4.1LLM的訴訟案例(2)AI繪畫工具被指控抄襲。2023年1月17日,全球知名圖片提供商華蓋創(chuàng)意起訴AI繪畫工具StableDiffusion的開發(fā)者StabilityAI,稱其侵犯了版權(quán)。1995年成立的華蓋創(chuàng)意首創(chuàng)并引領(lǐng)了獨特的在線授權(quán)模式——在線提供數(shù)字媒體管理工具以及創(chuàng)意類圖片、編輯類圖片、影視素材和音樂產(chǎn)品。華蓋創(chuàng)意稱StabilityAI在未經(jīng)許可的情況下,從網(wǎng)站上竊取了數(shù)百萬張圖片訓(xùn)練自己的模型,使用他人的知識產(chǎn)權(quán),為自己的經(jīng)濟(jì)利益服務(wù),這不是公平交易,所以采取行動保護(hù)公司和藝術(shù)家們的知識產(chǎn)權(quán)。14.4.1LLM的訴訟案例2023年1月16日,莎拉·安德森、凱莉·麥克南和卡拉·奧爾蒂斯三名藝術(shù)家對StabilityAI,另一個AI繪畫工具M(jìn)idjourney以及藝術(shù)家作品集平臺DeviantArt提出訴訟,稱這些組織“未經(jīng)原作者同意的情況下”通過從網(wǎng)絡(luò)上獲取的50億張圖像來訓(xùn)練其AI,侵犯了“數(shù)百萬藝術(shù)家”的權(quán)利。負(fù)責(zé)這個案件的律師正是訴訟OpenAI和微軟的馬修·巴特里克,他描述此案為“為每一個人創(chuàng)造公平的環(huán)境和市場的第一步”。不過,一審法官駁回了大部分上述訴求,但頒布了法庭許可,允許原告在調(diào)整、補(bǔ)充起訴事由和證據(jù)材料后另行起訴。14.4.1LLM的訴訟案例事實上,Midjourney對這類問題表現(xiàn)得不屑一顧,認(rèn)為:“沒有經(jīng)過授權(quán),我們也沒辦法一一排查上億張訓(xùn)練圖像分別來自哪里。如果再向其中添加關(guān)于版權(quán)所有者等內(nèi)容的元數(shù)據(jù),那也太麻煩了。但這不是什么大事,畢竟網(wǎng)絡(luò)上也沒有相應(yīng)的注冊表,我們做不到在互聯(lián)網(wǎng)上找一張圖片、然后輕松跟蹤它到底歸誰所有,再采取措施來驗證身份。既然原始訓(xùn)練素材未獲許可,那即使在我們這幫非法律出身的外行來看,這都很可能激起各制片方、電子游戲發(fā)行商和演員的反抗。”14.4.1LLM的訴訟案例(3)看不見的幽靈與看得見的恐慌。一位名為Ghostwriter977的網(wǎng)友用Drake和TheWeeknd的聲音對AI模型進(jìn)行訓(xùn)練,同時模仿兩人的音樂風(fēng)格,最終生成并發(fā)布歌曲《袖子上的心》。該歌曲在不到兩天的時間里,實現(xiàn)了病毒式的傳播:在Spotify上播放量超過60萬次,在TikTok上點擊量超1500萬次,完整版在YouTube平臺上播放超27.5萬次。值得注意的是,即便發(fā)布者并未在演唱信息中提及Drake和TheWeeknd,但該歌曲依然火了。14.4.1LLM的訴訟案例對很多人來說,這是AI音樂的第一首出圈之作,這是生成式AI進(jìn)行創(chuàng)作的開始,也是環(huán)球音樂加速干預(yù)AIGC問題的標(biāo)志。歌曲的躥紅很快引起環(huán)球音樂的注意。作為Drake和TheWeeknd的幕后唱片公司,公司對外發(fā)表言辭激烈的聲明稱:“使用我們旗下的藝術(shù)家對AI生成內(nèi)容進(jìn)行訓(xùn)練,這既違反了協(xié)議,也違反了版權(quán)法?!痹诃h(huán)球音樂的投訴下,這首歌曲先從Spotify和AppleMusic下架。緊隨其后,其他機(jī)構(gòu)也撤下了該歌曲。14.4.1LLM的訴訟案例環(huán)球音樂指出,在流媒體平臺上AI生成內(nèi)容的可用性引發(fā)了一個問題,即音樂行業(yè)生態(tài)中的所有利益相關(guān)者到底希望站在歷史的哪一邊:“是站在藝術(shù)家、粉絲和人類創(chuàng)造性表達(dá)的一邊,還是站在深度偽造、欺詐和剝奪藝術(shù)應(yīng)得補(bǔ)償?shù)牧硪贿?。”很顯然,在忍耐的極限后,業(yè)內(nèi)巨頭開啟了對AI音樂的抵抗,環(huán)球音樂發(fā)函要求Spotify等音樂流媒體平臺切斷AI公司的訪問權(quán)限,以阻止其版權(quán)歌曲被用于訓(xùn)練模型和生成音樂。14.4.1LLM的訴訟案例(4)ChatGPT屢屢惹官司。2023年2月15日,《華爾街日報》記者弗朗西斯科·馬可尼公開指控OpenAI公司未經(jīng)授權(quán)大量使用路透社、紐約時報、衛(wèi)報、BBC等國外主流媒體的文章訓(xùn)練ChatGPT模型,但從未支付任何費用。14.4.1LLM的訴訟案例2023年6月28日,第一起具有代表性的ChatGPT版權(quán)侵權(quán)之訴出現(xiàn)在公眾視野。兩名暢銷書作家保羅·特倫布萊和莫娜·阿瓦德在美國加州北區(qū)法院,向OpenAI提起集體訴訟,指控后者未經(jīng)授權(quán)也未聲明,利用自身享有版權(quán)的圖書訓(xùn)練ChatGPT,謀取商業(yè)利益。同月16名匿名人士向美國加利福尼亞舊金山聯(lián)邦法院提起訴訟,指控ChatGPT在沒有充分通知用戶,或獲得同意的情況下,收集、存儲、跟蹤、共享和披露了他們的個人信息。他們稱受害者據(jù)稱可能多達(dá)數(shù)百萬人,據(jù)此要求微軟和OpenAI賠償30億美元。14.4.1LLM的訴訟案例2023年7月10日,美國喜劇演員和作家薩拉·希爾弗曼以及另外兩名作家理查德·卡德雷、克里斯托弗·戈爾登在加州北區(qū)法院起訴OpenAI,指控ChatGPT所用的訓(xùn)練數(shù)據(jù)侵犯版權(quán)。同年9月19日,美國作家協(xié)會以及包括《權(quán)力的游戲》原著作者喬治·R·R·馬丁在內(nèi)的17位美國著名作家向美國紐約聯(lián)邦法院提起訴訟,指控OpenAI“大規(guī)模、系統(tǒng)性地盜竊”,稱OpenAI在未經(jīng)授權(quán)的情況下使用原告作家的版權(quán)作品訓(xùn)練其大語言模型,公然侵犯了作家們登記在冊的版權(quán)。14.4.1LLM的訴訟案例同年12月,含多名普利策獎得主在內(nèi)的11位美國作家,在曼哈頓聯(lián)邦法院起訴OpenAI和微軟濫用自己作品訓(xùn)練LLM,指出這樣的行為無疑是在“刮取”作家們的作品和其他受版權(quán)保護(hù)的材料,他們希望獲得經(jīng)濟(jì)賠償,并要求這些公司停止侵犯作家們的版權(quán)。14.4.1LLM的訴訟案例2023年12月27日,著名的《紐約時報》申請出戰(zhàn)?!都~約時報》向曼哈頓聯(lián)邦法院提起訴訟,指控OpenAI和微軟未經(jīng)許可使用該報數(shù)百萬篇文章訓(xùn)練機(jī)器人?!都~約時報》要求獲得損害賠償,還要求永久禁止被告從事所述的非法、不公平和侵權(quán)行為,刪除包含《紐約時報》作品原理的訓(xùn)練集等。雖然《紐約時報》并未提出具體的賠償金額要求,但其指出被告應(yīng)為“非法復(fù)制和使用《紐約時報》獨特且有價值的作品”和與之相關(guān)的“價值數(shù)十億美元的法定和實際損失”負(fù)責(zé)。14.4.1LLM的訴訟案例作為回應(yīng),當(dāng)?shù)貢r間2024年1月4日,OpenAI知識產(chǎn)權(quán)和內(nèi)容首席湯姆·魯賓在采訪中表示,公司近期與數(shù)十家出版商展開了有關(guān)許可協(xié)議的談判:“我們正處于多場談判中,正在與多家出版商進(jìn)行討論。他們十分活躍積極,這些談判進(jìn)展良好?!睋?jù)兩名近期與OpenAI進(jìn)行談判的媒體公司高管透露,為了獲得將新聞文章用于訓(xùn)練其LLM的許可,OpenAI愿意向部分媒體公司繳納每年100萬至500萬美元的費用。雖然對于一些出版商來說,這是一個很小的數(shù)字,但如果媒體公司數(shù)量足夠多,對OpenAI而言必然是一次“大出血”。14.4.1LLM的訴訟案例(5)Meta承認(rèn)使用盜版書籍訓(xùn)練LLM,但否認(rèn)侵權(quán)。2023年7月10日,莎拉等三人起訴OpenAI的同時也起訴了臉書的母公司Meta,指控其侵犯版權(quán),使用包含大量盜版書籍的Books3數(shù)據(jù)集訓(xùn)練Llama系LLM后。公開資料顯示,創(chuàng)建于2020年的Books3是一個包含19.5萬本圖書、總?cè)萘窟_(dá)37GB的文本數(shù)據(jù)集,旨在為改進(jìn)機(jī)器學(xué)習(xí)算法提供更好的數(shù)據(jù)源,但其中包含大量從盜版網(wǎng)站Bibliotik爬取的受版權(quán)保護(hù)作品。14.4.1LLM的訴訟案例對此,Meta方面承認(rèn)其使用Books3數(shù)據(jù)集的部分內(nèi)容來訓(xùn)練Llama1和Llama2,但否認(rèn)了侵權(quán)行為。對此Meta方面方表示,其使用Books3數(shù)據(jù)集訓(xùn)練LLM屬于合理使用范疇,無需獲得許可、署名或支付補(bǔ)償。同時Meta方面還對該訴訟作為集體訴訟的合法性提出異議,并拒絕向提起訴訟的作家或其他參與Books3爭議的人士提供任何形式的經(jīng)濟(jì)補(bǔ)償。14.4.1LLM的訴訟案例讓一個LLM運(yùn)行起來需要使用海量的文本語料進(jìn)行學(xué)習(xí),而這個過程中LLM使用的是無監(jiān)督學(xué)習(xí)方式進(jìn)行預(yù)訓(xùn)練。用于LLM訓(xùn)練的這些文本數(shù)據(jù)來自于互聯(lián)網(wǎng)的各個角落,包括但不限于書籍、文章、百科、新聞網(wǎng)站、論壇、博客等等,凡是互聯(lián)網(wǎng)上可以找到的信息,幾乎都在其學(xué)習(xí)之列。即便科研人員會對語料進(jìn)行數(shù)據(jù)清洗,但其中仍有可能包含個人的隱私信息。14.4.2尊重隱私,保證安全,促進(jìn)開放不論是語言模型還是圖像生成模型,LLM都會記住訓(xùn)練所使用的樣本,可能會在無意中泄露敏感信息。因此,有研究者認(rèn)為,當(dāng)前的隱私保護(hù)技術(shù)方法,如數(shù)據(jù)去重和差分隱私,可能與人們對隱私的普遍理解并不完全一致。所以,應(yīng)該在微調(diào)階段納入更嚴(yán)格的保障措施,以加強(qiáng)對于數(shù)據(jù)隱私的保護(hù)。專家們明確了LLM存在隱私風(fēng)險的三個方面:互聯(lián)網(wǎng)數(shù)據(jù)訓(xùn)練、用戶數(shù)據(jù)收集和生成內(nèi)容中的無意泄露。首先需要確保公共數(shù)據(jù)不具有個人可識別性,并與私人或敏感數(shù)據(jù)明確區(qū)分開來。未來應(yīng)重點關(guān)注算法的透明度和對個人信息主體的潛在傷害問題。14.4.2尊重隱私,保證安全,促進(jìn)開放對于隱私保護(hù)和LLM效率之間存在著一個兩難的矛盾——既要最大限度地保護(hù)數(shù)據(jù)隱私,又要最大限度地發(fā)揮模型的功效。人們需要通過協(xié)作開發(fā)一個統(tǒng)一、可信的框架,從而在隱私保護(hù)、模型效用和訓(xùn)練效率之間取得一種平衡。14.4.2尊重隱私,保證安全,促進(jìn)開放有研究者強(qiáng)調(diào),在LLM開發(fā)過程中面臨的數(shù)據(jù)隱私問題上,要確保遵守現(xiàn)行法律法規(guī)的規(guī)定,并充分評估隱私數(shù)據(jù)的使用對個人信息主體的影響,采取有效措施防止可能帶來負(fù)面影響。另外,在確保透明性的基礎(chǔ)上,鼓勵個人信息主體同意分享隱私數(shù)據(jù),以解決共同面對全球重大問題,以確保負(fù)責(zé)任地開發(fā)和安全地利用AI,進(jìn)而帶來更加廣泛的社會效益。14.4.2尊重隱私,保證安全,促進(jìn)開放當(dāng)LLM在技術(shù)和社會中扮演起越來越關(guān)鍵的角色時,它能否承擔(dān)起相應(yīng)的責(zé)任?如何促進(jìn)負(fù)責(zé)任的AI進(jìn)步并確保其在價值觀上與人類價值觀相一致?這些宏觀的問題十分棘手,但也十分迫切,因為LLM一旦遭到濫用,其強(qiáng)大的效用和能力有可能反過來損害社會的利益。負(fù)責(zé)任的AI需要技術(shù)和社會學(xué)兩方面的策略雙管齊下,而且有必要將LLM與多樣化、個性化以及特定文化的人類價值觀結(jié)合起來,達(dá)到一致。這其中,對于邊緣群體(尤其是殘障人士)的數(shù)字平等問題需要更加關(guān)切。14.4.3邊緣群體的數(shù)字平等AI技術(shù)可能產(chǎn)生錯誤陳述和歧視,使得對殘障人士的歧視被制度化。因此,AI開發(fā)者必須注意不要讓殘障人士與AI產(chǎn)生角色和利益上的沖突,開發(fā)者有責(zé)任去主動對抗那些有偏見的態(tài)度,倡導(dǎo)平等參與,提高平等意識。14.4.3邊緣群體的數(shù)字平等01AIGC面臨的倫理挑戰(zhàn)02數(shù)據(jù)隱私保護(hù)對策03AI倫理原則04LLM的知識產(chǎn)權(quán)保護(hù)目錄/CONTENTS第1版·微課版生成式人工智能基礎(chǔ)第15章面向AGI2022年11月30日,OpenAI對外發(fā)布了ChatGPT,這是一款A(yù)I聊天機(jī)器人程序,它展現(xiàn)出絕妙的人機(jī)交互體驗,能夠充分理解人類自然語言,可以用人類自然對話方式來交互,甚至讓人們分不清和自己對話的是人還是機(jī)器。此外,還可以用于更為復(fù)雜的語言工作,例如自動生成文本、自動問答、自動摘要等多種任務(wù)。一時間,人們對其背后的技術(shù)了解和研究,對大模型和生成式AI技術(shù),關(guān)注沖向了頂峰。當(dāng)時,ChatGPT上線5天后已有100萬用戶,上線兩個月后已有上億用戶。第15章面向AGI很快,在中國,AI初創(chuàng)企業(yè)如雨后春筍般不斷涌現(xiàn)。2025年初,發(fā)布了低成本高性能生成式AI的DeepSeek(杭州深度求索公司)在全世界爆紅,在互聯(lián)網(wǎng)巨頭的資金和學(xué)術(shù)機(jī)構(gòu)的人才支撐下的“中華AI”茁壯成長,原本以美國企業(yè)為中心的性能競爭迎來新局面。據(jù)報道稱,2025年1月20日,另一家中國企業(yè)——月之暗面公司也推出一款模型Kimik1.5,其推理能力超過了美國Anthropic公司的模型Claude3.5Sonnet,性能可以與美國OpenAI在2024年9月發(fā)布的模型OpenAIo1相媲美。——毫無疑問,一個AI新時代到來了!第15章面向AGI01生成式AI進(jìn)步02AGI的涌現(xiàn)03LLM與AGI04生成式AI與AGI目錄/CONTENTS05從生成式AI邁向AGI06AI的未來發(fā)展PART01生成式AI進(jìn)步作為AI的一個子集,生成式AI(AIGC)利用神經(jīng)網(wǎng)絡(luò)算法來分析和識別訓(xùn)練數(shù)據(jù)中的模式和結(jié)構(gòu),并利用這種理解來生成新的原始內(nèi)容,包括文本、圖像、視頻、音頻、代碼、設(shè)計或其他形式,既模仿類人的創(chuàng)作,又?jǐn)U展訓(xùn)練數(shù)據(jù)的模式。AIGC的應(yīng)用已經(jīng)迅速地擴(kuò)大到社會的各行各業(yè),引來人們的極大關(guān)注。

圖15-1生成式AI的進(jìn)步(AI作圖·賽博朋克風(fēng)格)15.1生成式AI進(jìn)步以下是生成式AI領(lǐng)域快速發(fā)展的幾個關(guān)鍵方面。(1)技術(shù)進(jìn)步與模型優(yōu)化。隨著深度學(xué)習(xí)、強(qiáng)化學(xué)習(xí)等技術(shù)的不斷發(fā)展,生成式AI的性能將得到進(jìn)一步提升。未來,人們可以期待更加高效、精準(zhǔn)的生成式AI模型的出現(xiàn)。?深度學(xué)習(xí)框架:隨著Transformer架構(gòu)及其變體(如GPT、BERT等)的發(fā)展,生成式AI模型的能力得到極大提升,這些模型能夠處理更長的文本序列,并在多模態(tài)任務(wù)中表現(xiàn)出色。15.1生成式AI進(jìn)步?計算資源增加:GPU、TPU等專用硬件的進(jìn)步以及云計算服務(wù)的普及,使得訓(xùn)練更大規(guī)模、更復(fù)雜的模型成為可能,降低了進(jìn)入門檻并加速了研究進(jìn)程。15.1生成式AI進(jìn)步(2)多樣化應(yīng)用場景。生成式AI將在更多領(lǐng)域得到應(yīng)用,如VR/AR、自動駕駛等。這些應(yīng)用將進(jìn)一步提升生成式AI的實用價值和社會影響力。?教育與文化創(chuàng)意產(chǎn)業(yè):從文學(xué)創(chuàng)作到視覺藝術(shù),再到音樂制作,生成式AI正廣泛應(yīng)用于內(nèi)容創(chuàng)作過程,提供了自動化寫作工具、圖像生成編輯器、智能混音軟件等一系列解決方案。個性化學(xué)習(xí)材料的定制、在線課程的設(shè)計等方面都受益于生成式AI的強(qiáng)大功能。15.1生成式AI進(jìn)步?商業(yè)營銷:企業(yè)利用生成式AI進(jìn)行廣告文案撰寫、產(chǎn)品描述生成等工作,提高了工作效率的同時也增強(qiáng)了市場競爭力。?醫(yī)療健康:通過分析病歷數(shù)據(jù)生成診斷建議、輔助藥物研發(fā)等,為醫(yī)療服務(wù)與健康事業(yè)提供了新的可能性。15.1生成式AI進(jìn)步(3)用戶體驗改善。聊天機(jī)器人、虛擬助手等應(yīng)用使交互變得更加智能和自然,可以更好地理解和回應(yīng)用戶的查詢。生成式AI不僅限于模仿現(xiàn)有風(fēng)格,還能夠創(chuàng)造出新穎獨特的作品,幫助創(chuàng)作者突破思維定式,探索更多可能性。15.1生成式AI進(jìn)步(4)商業(yè)模式創(chuàng)新?;趦?nèi)容即服務(wù)(CaaS)的訂閱式內(nèi)容生成平臺允許用戶按需獲取高質(zhì)量的原創(chuàng)內(nèi)容,降低了內(nèi)容生產(chǎn)的成本。?微內(nèi)容與短格式媒體:短視頻、動態(tài)壁紙等形式的流行促使了相關(guān)生成工具和服務(wù)的繁榮發(fā)展。?版權(quán)保護(hù)與交易機(jī)制:區(qū)塊鏈技術(shù)和智能合約的應(yīng)用確保了創(chuàng)作者的權(quán)利得到保障,促進(jìn)了數(shù)字資產(chǎn)的流通。15.1生成式AI進(jìn)步(5)倫理考量和社會影響。隨著生成式AI的普及,我們需要關(guān)注其可能帶來的倫理挑戰(zhàn)。例如,如何確保生成的內(nèi)容符合道德和法律要求,如何保護(hù)原創(chuàng)作品的權(quán)益等。?版權(quán)與原創(chuàng)性問題:明確界定AI生成內(nèi)容與人類原創(chuàng)作品之間的界限,保護(hù)雙方權(quán)益。?質(zhì)量控制與編輯:雖然生成式AI可以大幅加快創(chuàng)作速度,但仍需專業(yè)人員對最終成品進(jìn)行校對和優(yōu)化。15.1生成式AI進(jìn)步?避免偏見與歧視:注意訓(xùn)練數(shù)據(jù)的選擇,防止模型習(xí)得并傳播不公正或歧視性的觀念。?隱私保護(hù):嚴(yán)格遵守數(shù)據(jù)保護(hù)法規(guī),在收集和處理個人信息時采取必要措施保障安全。生成式AI的快速發(fā)展不僅推動了技術(shù)創(chuàng)新,也為各行各業(yè)帶來了新的商業(yè)模式和服務(wù)形態(tài)。生成式AI是一個充滿機(jī)遇和挑戰(zhàn)的領(lǐng)域。通過深入了解其基本概念、應(yīng)用場景以及未來發(fā)展趨勢,我們可以更好地把握這一技術(shù)的發(fā)展脈搏,為未來的創(chuàng)新和發(fā)展提供有力支持。15.1生成式AI進(jìn)步PART02AGI的涌現(xiàn)作為一種理論上的智能形態(tài),通用人工智能(AGI)被認(rèn)為能夠執(zhí)行任何智力任務(wù),其能力廣度和深度可與人類智能相媲美。AGI不限于特定任務(wù)或領(lǐng)域,而是具備廣泛的理解、學(xué)習(xí)、推理、適應(yīng)、創(chuàng)新和自我意識等能力。15.2AGI的涌現(xiàn)邁向AGI,是一條充滿挑戰(zhàn)與希望的道路。其“涌現(xiàn)”在于AI和復(fù)雜系統(tǒng)理論中,是指簡單規(guī)則或組件通過相互作用產(chǎn)生復(fù)雜行為或結(jié)構(gòu)的過程。

圖15-2AGI(AI作圖)15.2AGI的涌現(xiàn)當(dāng)談?wù)揂GI“涌現(xiàn)”時,是指通過現(xiàn)有技術(shù)的不斷迭代和發(fā)展,或者是通過發(fā)現(xiàn)新方法,有可能達(dá)到的一種臨界點,使智能特性突然之間變得更加綜合和普遍。不過,這樣的進(jìn)展通常需要解決諸多技術(shù)和理論上的挑戰(zhàn),包括算法設(shè)計、計算資源、數(shù)據(jù)需求以及對意識、自我和認(rèn)知的理解等深層次的問題。15.2AGI的涌現(xiàn)目前,關(guān)于AGI的發(fā)展有兩種主要觀點:一種認(rèn)為隨著深度學(xué)習(xí)和其他AI技術(shù)的進(jìn)步,我們將逐漸接近AGI;另一種則認(rèn)為現(xiàn)有的AI框架存在根本性限制,實現(xiàn)AGI可能需要全新的概念和技術(shù)突破。無論如何,AGI的研究仍然是一個活躍且充滿爭議的領(lǐng)域,涉及計算機(jī)科學(xué)、神經(jīng)科學(xué)、哲學(xué)等多個學(xué)科。當(dāng)前的AI系統(tǒng),仍然專注于特定的任務(wù)或一組有限的任務(wù)類型,并不具備廣泛的、跨領(lǐng)域的理解和應(yīng)用能力。15.2AGI的涌現(xiàn)“AGI”這個詞匯最早可以追溯到2003年瑞典哲學(xué)家尼克·博斯特羅姆發(fā)表的論文《先進(jìn)AI的倫理問題》。在該論文中,博斯特羅姆討論了超級智能的道德問題,并在其中引入了“AGI”這一概念,描述一種能夠像人類一樣思考、學(xué)習(xí)和執(zhí)行多種任務(wù)的AI系統(tǒng)。超級智能被定義為任何智能在幾乎所有感興趣的領(lǐng)域中都大大超過人類認(rèn)知表現(xiàn)的智能。這個定義允許增強(qiáng)的黑猩猩或海豚也有可能成為超級智能,也允許非生物超級智能的可能性。15.2.1AGI的定義因此,AGI可以被視為是一種更高級別的AI,是當(dāng)前AI技術(shù)發(fā)展的一個重要方向和目標(biāo)。從LLM到生成式AI(AIGC),再到AGI,這一過程體現(xiàn)了AI技術(shù)的逐步發(fā)展和深化。它不僅僅是技術(shù)層面的進(jìn)步,更是對智能本質(zhì)、人類價值觀和社會秩序的深刻探索和重新定義。這是一場科技革命,也是一場對未來的深刻思考和準(zhǔn)備,AGI仍然是一個較為遙遠(yuǎn)的目標(biāo)。15.2.1AGI的定義定義:AGI是指一種能夠理解、學(xué)習(xí)并執(zhí)行任何智力任務(wù)的機(jī)器智能,其能力范圍廣泛且靈活,類似于或超越了人類的智能水平。AGI與狹義AI形成對比,后者只能在特定的任務(wù)或領(lǐng)域內(nèi)表現(xiàn)出色,如圖像識別、語音處理或棋類游戲等。15.2.1AGI的定義定義AGI的一些關(guān)鍵點如下。(1)多領(lǐng)域適應(yīng)性。AGI能夠在多個不同領(lǐng)域中表現(xiàn)出色,而不僅僅局限于某一特定類型的任務(wù)。它應(yīng)該可以像人類一樣,從一個領(lǐng)域快速切換到另一個領(lǐng)域,并能有效地解決問題。(2)自我學(xué)習(xí)與改進(jìn)。AGI具備自我學(xué)習(xí)的能力,可以通過經(jīng)驗積累不斷優(yōu)化自己的性能。這意味著它可以自主地調(diào)整和改進(jìn)算法,以更好地應(yīng)對新的挑戰(zhàn)和環(huán)境變化。15.2.1AGI的定義(3)抽象思維與推理。AGI擁有強(qiáng)大的抽象思維能力和邏輯推理技能,能夠理解和處理復(fù)雜的概念,進(jìn)行高層次的思考,包括規(guī)劃、策略制定和社會互動。(4)知識遷移。AGI可以在不同情境之間遷移所學(xué)的知識和技能,將某一領(lǐng)域的經(jīng)驗應(yīng)用到其他相關(guān)或不相關(guān)的領(lǐng)域,從而實現(xiàn)更高效的解決方案發(fā)現(xiàn)。15.2.1AGI的定義(5)創(chuàng)造性與創(chuàng)新能力。AGI不僅限于模仿已有的模式,還應(yīng)具有創(chuàng)造新事物的能力,提出新穎的想法和解決方案,甚至是在藝術(shù)創(chuàng)作等領(lǐng)域展現(xiàn)出獨特的風(fēng)格。(6)感知與自然語言理解。AGI需要具備高度發(fā)達(dá)的感知系統(tǒng)和NLP能力,以便準(zhǔn)確地理解周圍的世界并與之交互,包括視覺、聽覺等多感官輸入的理解,以及流暢的人機(jī)對話交流。15.2.1AGI的定義(7)情感與社會認(rèn)知。雖然這不是所有定義AGI的標(biāo)準(zhǔn)都包含的部分,但有些觀點認(rèn)為真正的AGI還需要某種程度上的情感理解和社交智能,即能夠識別他人的情緒狀態(tài)并作出適當(dāng)?shù)姆磻?yīng),這對于復(fù)雜的社會互動至關(guān)重要。15.2.1AGI的定義總之,AIG被描述為一種全能型的智能體,它不僅能完成各種具體的任務(wù),更重要的是它擁有廣泛的認(rèn)知能力和靈活性,可以像人類一樣去適應(yīng)、學(xué)習(xí)和發(fā)展。值得注意的是,盡管近年來AI技術(shù)取得了顯著進(jìn)步,但目前還沒有任何一個系統(tǒng)達(dá)到了真正意義上的AGI水平。AGI仍然是一個充滿挑戰(zhàn)的研究方向,涉及到計算機(jī)科學(xué)、神經(jīng)科學(xué)、哲學(xué)等多個學(xué)科的交叉合作。15.2.1AGI的定義目前,大多數(shù)AI系統(tǒng)是針對特定任務(wù)或領(lǐng)域進(jìn)行優(yōu)化的,例如語音識別、圖像識別、自然語言處理、推薦系統(tǒng)等,這是將問題得到簡化的一種解決問題的方法。這些系統(tǒng)在其特定領(lǐng)域中可能表現(xiàn)得很出色,但它們?nèi)狈νㄓ眯院挽`活性,不能適應(yīng)各種不同的任務(wù)和環(huán)境。有別于“專用(特定領(lǐng)域)AI”,AGI具有高效的學(xué)習(xí)和泛化能力、能夠根據(jù)所處的復(fù)雜動態(tài)環(huán)境自主產(chǎn)生并完成任務(wù),它具備感知、認(rèn)知、決策、學(xué)習(xí)、執(zhí)行和社會協(xié)作等能力,且符合人類情感、倫理與道德觀念。15.2.2龍頭企業(yè)對AGI的認(rèn)識根據(jù)網(wǎng)絡(luò)檔案截圖,在開發(fā)ChatGPT的OpenAI企業(yè)的招聘頁面上,此前列出的員工六項核心價值觀,分別是大膽、深思熟慮、樸實無華、影響驅(qū)動、協(xié)作和增長導(dǎo)向。而目前,同一頁面列出的是五項核心價值觀,其中第一項就是“聚焦AGI”,且補(bǔ)充說明稱,“任何對此無益的事物都不在考慮范圍之內(nèi)”。其他四項分別是“緊張和拼搏”“規(guī)?!薄皠?chuàng)造人們喜愛的東西”和“團(tuán)隊精神”。15.2.2龍頭企業(yè)對AGI的認(rèn)識OpenAI公司在其官網(wǎng)上這樣寫道:“OpenAI的使命是確保AGI,即一種高度自主且在大多數(shù)具有經(jīng)濟(jì)價值的工作上超越人類的系統(tǒng),將為全人類帶來福祉。我們不僅希望直接建造出安全的、符合共同利益的AGI,而且愿意幫助其他研究機(jī)構(gòu)共同建造出這樣的AGI以達(dá)成我們的使命?!?025年年初,全球AI領(lǐng)域中的新晉新秀、中國杭州的深度求索(DeepSeek)基礎(chǔ)技術(shù)研究有限公司在其招聘平臺的“企業(yè)文化”一欄中寫道:“投身于探索AGI本質(zhì)的事業(yè),不做中庸的事,帶著好奇心,用最長期的眼光去回答最大的問題?!?5.2.2龍頭企業(yè)對AGI的認(rèn)識實現(xiàn)AGI是AI研究的長期目標(biāo)之一,它要求機(jī)器具有跨領(lǐng)域的學(xué)習(xí)能力、適應(yīng)能力、自我意識和創(chuàng)造能力,能夠像人類一樣靈活應(yīng)對各種任務(wù)和情境。但是,目前仍面臨眾多技術(shù)和哲學(xué)挑戰(zhàn),包括如何設(shè)計能夠自我學(xué)習(xí)和進(jìn)化的算法、如何確保智能體的行為符合倫理道德標(biāo)準(zhǔn)、以及如何處理智能體決策的可解釋性和可控性等問題。盡管已經(jīng)有一些初步的嘗試和原型,但真正達(dá)到與人類智能相媲美或超越的AGI系統(tǒng)尚未實現(xiàn)。15.2.2龍頭企業(yè)對AGI的認(rèn)識OpenAI的富有遠(yuǎn)見的首席執(zhí)行官山姆·奧特曼在一次采訪中分享了他對AI發(fā)展軌跡的看法。奧特曼表示:“未來的AI模型可能需要較少的訓(xùn)練數(shù)據(jù),而更多地專注于它們的推理能力。”這不僅暗示技術(shù)的轉(zhuǎn)變,而且預(yù)示著一個新時代的來臨,在這個時代,AI的思維過程可能會反映人類的邏輯和直覺。能夠達(dá)到這種能力的AI——具有人的適應(yīng)性和常識——就是AGI。山姆·奧特曼將其定義為“能夠跨多個領(lǐng)域進(jìn)行泛化,相當(dāng)于人類工作的系統(tǒng)?!睂崿F(xiàn)這種狀態(tài)已成為OpenAI的首要任務(wù),以至于它甚至修改了其愿景和道德原則以適應(yīng)這種新的努力。15.2.2龍頭企業(yè)對AGI的認(rèn)識PART03LLM與AGI雖然LLM已經(jīng)取得了一些驚人的進(jìn)展,但它還不符合AGI的要求。

圖15-3AI眼下的LLM(AI作圖)15.3LLM與AGI(1)LLM在處理任務(wù)方面能力有限。它一般只能處理文本領(lǐng)域的任務(wù),無法與物理和社會環(huán)境進(jìn)行互動。這意味著像ChatGPT這樣的模型不能真正“理解”語言的含義,缺乏身體而無法體驗物理空間。只有將AI體放置于真實的物理世界和人類社會中,它們才能切實了解并習(xí)得真實世界中事物之間的物理關(guān)系和不同智能體之間的社會關(guān)系,從而做到“知行合一”。15.3LLM與AGI(2)LLM不具備自主能力。它需要人類來具體定義每一個任務(wù),它模仿被訓(xùn)練過的話語。(3)雖然ChatGPT已經(jīng)在不同的文本數(shù)據(jù)語料庫上進(jìn)行了大規(guī)模訓(xùn)練,包括隱含人類價值觀的文本,但它并不具備理解人類價值或與其保持一致的能力,即缺乏所謂的道德指南針。15.3LLM與AGI加州大學(xué)伯克利分校教授斯圖爾特·羅素表示,關(guān)于ChatGPT,更多數(shù)據(jù)和更多算力不能帶來真正的智能。要構(gòu)建真正智能的系統(tǒng),應(yīng)當(dāng)更加關(guān)注數(shù)理邏輯和知識推理,因為只有將系統(tǒng)建立在我們了解的方法之上,才能確保AI不會失控。擴(kuò)大規(guī)模不是答案,更多數(shù)據(jù)和更多算力不能解決問題,這種想法過于樂觀,在智力上也不有趣。15.3LLM與AGI圖靈獎得主揚(yáng)·勒昆認(rèn)為:語言只承載了所有人類知識的一小部分,大部分人類具有的知識都是非語言的。因此,LLM無法接近人類水平智能。深刻的非語言理解是語言有意義的必要條件。正是因為人類對世界有深刻的理解,所以我們可以很快理解別人在說什么。這種更廣泛、對上下文敏感的學(xué)習(xí)和知識是一種更基礎(chǔ)、更古老的知識,它是生物感知能力出現(xiàn)的基礎(chǔ),讓生存和繁榮成為可能。這也是AI研究者在尋找AI中的常識時關(guān)注的更重要的任務(wù)。15.3LLM與AGILLM,它們的知識更多是以單詞開始和結(jié)束而非身體感知,這種常識總是膚淺的。人類處理各種LLM的豐富經(jīng)驗清楚地表明,僅從言語中可以獲得的東西是如此之少。技術(shù)發(fā)展趨勢不可逆。人類可以為超級AI預(yù)先設(shè)計一顆善良的心,而這無疑離不開各國在立法層面達(dá)成互通和共識,在規(guī)范AI方面所做出的努力。15.3LLM與AGIPART04生成式AI與AGI生成式AI和AGI代表了AI領(lǐng)域的兩個不同但又相互關(guān)聯(lián)的概念,它們各自關(guān)注不同的方面,并且在技術(shù)實現(xiàn)和發(fā)展路徑上也有所區(qū)別。(1)技術(shù)側(cè)重點。生成式AI主要集中在內(nèi)容創(chuàng)作和技術(shù)應(yīng)用層面,旨在擴(kuò)展人類創(chuàng)造的可能性。AGI則更側(cè)重于開發(fā)一種全能型的智能體,追求的是超越現(xiàn)有AI系統(tǒng)的廣泛適用性和深度理解力。(2)目標(biāo)導(dǎo)向。生成式AI的目標(biāo)是為用戶提供實用且富有創(chuàng)意的產(chǎn)品和服務(wù)。而AGI的目標(biāo)是創(chuàng)建一個能夠像人類一樣思考、學(xué)習(xí)并應(yīng)對各種情況的智能實體。15.4生成式AI與AGI(3)發(fā)展路徑。生成式AI已經(jīng)取得了顯著進(jìn)展,并在多個行業(yè)得到了實際應(yīng)用。AGI仍然是一個長遠(yuǎn)的研究方向,涉及大量的基礎(chǔ)研究和技術(shù)突破。盡管兩者有著明顯的區(qū)別,但在某些情況下,生成式AI的進(jìn)步可能為通往AGI的道路提供寶貴的經(jīng)驗和技術(shù)支持。例如,增強(qiáng)型的學(xué)習(xí)方法、更好的自然語言理解和生成能力等都是通向AGI的重要步驟。同時,隨著生成式AI不斷進(jìn)化,它可能會逐漸逼近甚至達(dá)到某些形式的“弱”AGI,即在某些特定范圍內(nèi)表現(xiàn)出接近人類水平的多功能性和靈活性。15.4生成式AI與AGIPART05從生成式AI邁向AGI從生成式AI邁向AGI的關(guān)鍵步驟主要如下。(1)增強(qiáng)泛化能力:雖然生成式AI在特定任務(wù)上表現(xiàn)出色,但要達(dá)到AGI,需要進(jìn)一步提高模型的泛化能力,使其能在未經(jīng)訓(xùn)練的領(lǐng)域也能有效運(yùn)作。(2)跨領(lǐng)域推理:AGI要求AI能夠跨越不同的知識領(lǐng)域進(jìn)行推理,這需要生成式AI不僅能生成內(nèi)容,還能理解其背后的邏輯和概念。15.5從生成式AI邁向AGI(3)情感與意識:發(fā)展能夠理解、模擬乃至體驗情感的模型,這是AGI追求的一個高級目標(biāo),也是生成式AI向更深層次智能演進(jìn)的關(guān)鍵一步。(4)倫理與自我約束:AGI需要具備道德判斷力和自我約束機(jī)制,確保其行為符合人類倫理和社會規(guī)范,這是當(dāng)前生成式AI所不具備的。(5)持續(xù)學(xué)習(xí)與進(jìn)化:AGI應(yīng)該能夠像人類一樣持續(xù)學(xué)習(xí),不斷優(yōu)化自身,而非僅僅依賴于預(yù)設(shè)的算法和數(shù)據(jù)集。15.5從生成式AI邁向AGI未來,AGI會從以下幾個方面來展現(xiàn)其發(fā)展趨勢。(1)基礎(chǔ)研究突破:在認(rèn)知科學(xué)、神經(jīng)科學(xué)和計算機(jī)科學(xué)等領(lǐng)域的交叉研究中,尋找靈感和理論依據(jù),以支撐更高級別的智能模型。(2)技術(shù)的融合與突破:生成式AI與其他AI技術(shù)(如強(qiáng)化學(xué)習(xí)、符號AI)的深度融合,可能為通往AGI開辟新途徑。實現(xiàn)AGI需要在算法、計算能力、數(shù)據(jù)處理和硬件設(shè)計等方面取得重大突破,包括更高效的機(jī)器學(xué)習(xí)算法、量子計算等技術(shù)的應(yīng)用。15.5從生成式AI邁向AGI(3)倫理與法律框架:隨著AGI的逼近,建立相應(yīng)的倫理準(zhǔn)則和法律框架以確保安全、公平、無偏見的應(yīng)用變得愈發(fā)緊迫。AGI將深刻影響社會經(jīng)濟(jì),改變工作市場、教育體系、醫(yī)療保健、娛樂產(chǎn)業(yè)等眾多領(lǐng)域,帶來生產(chǎn)力的飛躍和社會結(jié)構(gòu)的重塑。AGI可能與人類形成更深層次的合作關(guān)系,共同解決問題,提升人類生活質(zhì)量,但也可能引發(fā)失業(yè)、技能過時等社會問題。隨著AGI智能水平的提升,可能會引發(fā)關(guān)于意識、自我意識、機(jī)器權(quán)利(身份)以及人機(jī)關(guān)系的哲學(xué)探討。15.5從生成式AI邁向AGI(4)安全與監(jiān)管:確保AGI的安全性,防止惡意使用,將是未來研究的重要方向。需要全球合作,建立有效的監(jiān)管和治理體系。AGI的未來充滿了無限可能性和挑戰(zhàn)。它既是科技進(jìn)步的頂點,也承載著人類對于更好生活的憧憬,同時伴隨著對未知后果的擔(dān)憂。實現(xiàn)AGI的道路漫長且充滿不確定性,但無疑,這一領(lǐng)域的發(fā)展將深刻影響人類社會的未來走向。15.5從生成式AI邁向AGI從LLM和生成式AI向AGI邁進(jìn),是一個長期而艱巨的任務(wù)是一個復(fù)雜且充滿挑戰(zhàn)的過程。盡管人們已經(jīng)在某些方面取得了令人矚目的進(jìn)展,但仍有許多關(guān)鍵問題等待解決。通過持續(xù)的技術(shù)創(chuàng)新、理論突破、跨學(xué)科的合作以及對倫理和社會影響的關(guān)注,我們可以逐步接近這個宏偉的目標(biāo)。然而,重要的是要認(rèn)識到,AGI的研發(fā)不僅要追求技術(shù)上的卓越,更要考慮其對人類社會的影響,確保這項技術(shù)能夠造福全人類。15.5從生成式AI邁向AGI邁向AGI的關(guān)鍵要素包括多領(lǐng)域適應(yīng)性、自主學(xué)習(xí)與改進(jìn)、抽象思維與推理、知識遷移、創(chuàng)造性與創(chuàng)新能力、高級感知與自然語言理解,以及情感與社會認(rèn)知,這些能力共同推動AI從專業(yè)化向通用智能進(jìn)化。(1)多領(lǐng)域適應(yīng)性:AGI需要能夠在多個不同領(lǐng)域內(nèi)表現(xiàn)出色,而不僅僅是擅長某一類任務(wù)。這意味著要開發(fā)出能夠跨越學(xué)科邊界的學(xué)習(xí)算法和技術(shù)框架。15.5.1邁向AGI的關(guān)鍵因素(2)自主學(xué)習(xí)與改進(jìn):AGI應(yīng)該具備自我學(xué)習(xí)的能力,可以通過經(jīng)驗積累不斷優(yōu)化自身的性能。這要求系統(tǒng)不僅能從大量數(shù)據(jù)中提取有用信息,還能主動

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論