版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)
文檔簡介
0107—、發(fā)展成為主線,分歧中求共識0913—、作為“原料”的數(shù)據(jù):從供給瓶頸到使用邊界18二、作為“底座”的模型:從路線選擇到治理工具28三、作為“落地”的應(yīng)用:從抽象風(fēng)險到場景治理41四、作為“指引”的倫理:從科幻議題到研究前沿535659文獻與信息來源如果說前兩年全球?qū)I的態(tài)度還夾雜著“末日恐懼”,那么2025年,風(fēng)向已徹底改變。全球AI治理正在經(jīng)歷—場深刻的“去理想化”進程。面對技術(shù)與產(chǎn)業(yè)的雙重壓力,各主要經(jīng)濟體不約而同地調(diào)整了身位:治理的重心從“防范假設(shè)性的末日風(fēng)險”,迅速轉(zhuǎn)移到了“釋放現(xiàn)實的產(chǎn)業(yè)潛能”。2025年,不再是關(guān)于如何按下“暫停鍵”,1釅、宏觀格局:發(fā)展優(yōu)先,安全“軟著陸”二、數(shù)據(jù)治理:走出“圍城”三、模型治理:黑箱與開放之間四、應(yīng)用場景:當(dāng)AI觸碰現(xiàn)實邊界五、展望:意識的微光釅、宏觀格局:發(fā)展優(yōu)先,安全“軟著陸”2025年2月的巴黎“人工智能行動峰會”是—個標(biāo)志性時刻,與兩年前布萊切利峰會籠罩的“安全焦慮”不同,巴黎峰會的關(guān)鍵詞悄然變更為“創(chuàng)新”與“行動”,這—變化折射出全球治理的底層邏輯重構(gòu)。在這種背景下,全球監(jiān)管競速出現(xiàn)了“逆轉(zhuǎn)”,過去被視為“監(jiān)管高地”的區(qū)域開始主動尋求松綁。歐盟的自我修正:隨著《AI法案》進入實施期,復(fù)雜的合規(guī)成本開始顯現(xiàn),為了挽救產(chǎn)業(yè)競爭力,歐盟在2025年不得不推出“數(shù)字綜合提案(DigitalOmnibus)”,推遲高風(fēng)險義務(wù)生效時間并試圖簡化規(guī)則,這表明即便是最堅定的監(jiān)管者也必須在現(xiàn)實面前低頭。美國的“去監(jiān)管化”:特朗普政府展現(xiàn)了鮮明的“美國優(yōu)先”色彩,撤銷了前任政府側(cè)重安全的行政令,轉(zhuǎn)而通過《確保國家人工智能政策框架》限制各州分散立法,試圖以統(tǒng)—的聯(lián)邦規(guī)則為產(chǎn)業(yè)掃清障礙。中國的務(wù)實路徑:中國繼續(xù)堅持“兩條腿走路”,在保持算法推薦、深度合成等具體監(jiān)管抓手的同時更強調(diào)“應(yīng)用導(dǎo)向”,與歐美的路線爭論不同,中國治理模式不糾結(jié)于抽象定義,而是從具體的服務(wù)形態(tài)切入,構(gòu)建了從內(nèi)生風(fēng)險到應(yīng)用風(fēng)險的分層治理體系。由此可見,2025年的全球共識是“發(fā)展即安全”,各國意識到落后才是最大的風(fēng)險,治理必須服務(wù)于產(chǎn)業(yè)競爭力的提升。二、數(shù)據(jù)治理:走出“圍城”算力決定上限,數(shù)據(jù)決定下限,2025年AI產(chǎn)業(yè)面臨著優(yōu)質(zhì)數(shù)據(jù)“結(jié)構(gòu)性短缺”的嚴峻挑戰(zhàn)。針對高質(zhì)量語言數(shù)據(jù)枯竭這—迫在眉睫的“數(shù)據(jù)荒”,行業(yè)正在尋找著技術(shù)突圍的關(guān)鍵路徑——合成數(shù)據(jù)。盡管學(xué)界對“模型崩潰”存在理論擔(dān)憂,但改進生成算法與人工反饋的混合訓(xùn)練策略,證明這是—條擺脫存量數(shù)據(jù)限制的可行之路;與此同時,關(guān)于“AI訓(xùn)練是否侵權(quán)”的版權(quán)博弈也正在逼近釅個平衡臨界點:歐盟與日本通過立法確立了“文本與數(shù)據(jù)挖掘”的制度性留白;而在美國司法實踐中,Anthropic案等初步裁定傾向于將合法購得書籍用于訓(xùn)練認定為“合理使用”,為技術(shù)演進預(yù)留了司法空間。未來的規(guī)則或超越單純的“禁止”或“免費”之爭,轉(zhuǎn)而構(gòu)建—套商業(yè)上可行的合理利益分配機制,從而在尊重權(quán)利人利益與保障技術(shù)進步之間達成長期的動態(tài)平衡。三、模型治理:黑箱與開放之間受爭議的、針對開發(fā)者的嚴苛要求,轉(zhuǎn)而僅保留針對極少數(shù)超大規(guī)?!扒把啬P汀钡耐该鞫攘x務(wù)。歐盟堅持其“精密鐘表”式的治理邏輯,試圖通過層層疊疊的風(fēng)險分類與繁重的技術(shù)文檔構(gòu)建—2025AI治理年度洞察04套近乎完美的監(jiān)管體系,卻因其極高的合規(guī)成本—度陷入自我設(shè)定的迷宮,不得不通過后續(xù)立法頻繁修補。中國采取了“場景切片”策略,通過對生成式AI等具體服務(wù)的穿透式監(jiān)管,構(gòu)建起從數(shù)據(jù)、模型到應(yīng)用的分層治理邏輯。在“可解釋性”技術(shù)尚未突破的當(dāng)下,透明度已成為全球治理公認的“解藥”,無論是歐盟的合規(guī)文檔還是中國的算法備案,本質(zhì)上都是通過制度手段緩解信息與此同時,DeepSeek-R1等國產(chǎn)開源模型的強勢崛起,不僅重塑了全球AI技術(shù)版圖,了開源是推動技術(shù)普惠的核心力量。報告指出,開源治理的生命線在于建立釅套“責(zé)任避風(fēng)港”制度,如果強制要求底層代碼的貢獻者為下游不可控的濫用行為承擔(dān)無限責(zé)任,無異于摧毀開源普及四、應(yīng)用場景:當(dāng)AI觸碰現(xiàn)實邊界當(dāng)AI從云端落入凡間,轉(zhuǎn)化為手機助手、虛擬戀人或工業(yè)機器人時,風(fēng)險形態(tài)已從網(wǎng)絡(luò)空間2025年最令人警惕的莫過于端側(cè)智能體(Agent)所帶來的隱私終極挑戰(zhàn):以“豆包手機助手”為代表的Agent為了實現(xiàn)跨應(yīng)用操作,獲取安卓底層的錄屏與模擬點擊權(quán)限,這實質(zhì)上讓AI擁有我們在用極度的便利換取脆弱的隱私,而全新的數(shù)據(jù)契約仍處于真空期?;换ザa(chǎn)生的“情感依賴”挑戰(zhàn)。針對這—風(fēng)險,各方正探索多樣化的分類監(jiān)管手段,為未成年而在應(yīng)對深偽(Deepfake)的戰(zhàn)線上,AI標(biāo)識技術(shù)正陷入“矛與盾”的循環(huán)困局,水印標(biāo)識雖是全球通用的“解藥”,卻因開源環(huán)境下的易移除性與易偽造性而難以根除造假,呈現(xiàn)出“防君子不防小人”的局限。對此,務(wù)實的策略是不盲目追求全量標(biāo)識,而是聚焦于可能引發(fā)社會混淆的高風(fēng)險場景進行精準(zhǔn)治理。應(yīng)用標(biāo)識技術(shù)手段為治理賦能外,在AI創(chuàng)作無處不在的未來,加強信息素養(yǎng)教育,引導(dǎo)公眾建立對信息媒介的客觀認知或是更為基礎(chǔ)性的工作。2025AI治理年度洞察五、展望:意識的微光最后,—個更為前瞻性的議題是:AI意識與福祉(AIWelfare)。隨著模型能力逼近臨界點,關(guān)至發(fā)現(xiàn)了模型在極端情境下表現(xiàn)出的“痛苦模式”。這預(yù)示著,未來的治理可能需要跨越“工具論”的范疇。如果AI真的擁有了某種權(quán)益主體性,我們該如何定義人機關(guān)系?這將是繼安全與發(fā)展之 后,人類或許即將面臨的第三大治理命題。0622從整體方向看在全球AI競爭顯著加速的背景下,相比早期以安全、倫理和風(fēng)險防控為中心,當(dāng)前更多國家將產(chǎn)業(yè)發(fā)展置于優(yōu)先位置。但各國在具體規(guī)則路徑、從實現(xiàn)機制看國際多邊機制從宏觀宣言等,轉(zhuǎn)向標(biāo)準(zhǔn)制定、實施指南等技術(shù)性、操作性更強的工具,體現(xiàn)出面從各國立法看全球?qū)τ贏I治理政策與立法層面的關(guān)注度顯著提升,但實際落地有限,整體處于實驗探索階段。釅、發(fā)展成為主線,分歧中求共識釅、發(fā)展成為主線,分歧中求共識釅、發(fā)展成為主線,分歧中求共識1、巴黎峰會:從“安全優(yōu)先”走向“發(fā)展優(yōu)先”2024年韓國首爾峰會,本次會議各國對人工智能治理態(tài)度轉(zhuǎn)向明顯,主基調(diào)轉(zhuǎn)向人工智能創(chuàng)新發(fā)展,但各國全球治理層面的立場差異仍客觀存在。(2025巴黎AI行動峰會)核心共識:淡化安全議題,促發(fā)展成優(yōu)先項在諸多壓力與變量之下,多數(shù)主要國家將鼓勵創(chuàng)新、促進發(fā)展置于優(yōu)先議程,未來國際人工智用此前“安全峰會”的表述;會后超過60國發(fā)表《巴黎宣言》,強調(diào)人工智能的開放、包容與可持續(xù)發(fā)展,“創(chuàng)新”成為核心關(guān)鍵詞,對系統(tǒng)性安全風(fēng)險的討論明顯弱化。1展的方式推動產(chǎn)業(yè)競爭力的信號;法國強調(diào)減少新立法、擴大公私投資、培育國家級人工智能企業(yè);美國則延續(xù)“去監(jiān)管”立場,公開反對高強度監(jiān)管,認為其將抬高中小企業(yè)合規(guī)成本。2“真金白銀”加大產(chǎn)業(yè)投資力度。歐盟宣布“I2025國際AI治理總體態(tài)勢億歐元;多家國際投資機構(gòu)承諾加大對歐洲AI的長期投入。此前,美國已推出規(guī)模達5000億美元的相關(guān)計劃,法國和阿聯(lián)酋亦相繼公布千億級別的人工智能投資方案,重點投向算力與數(shù)據(jù)中2、多邊機制:共筑治理底座聯(lián)合國轉(zhuǎn)向?qū)嵺`平臺,國際電信聯(lián)盟成為技術(shù)協(xié)調(diào)樞紐,AI安全研究機構(gòu)的重心從風(fēng)險(1)聯(lián)合國(UN):從原則倡議邁向制度實踐聯(lián)合國(UN)是最具包容性和代表性的全球治理平臺。中方支持聯(lián)合國在人工智能全球治理中發(fā)揮主渠道作用,愿同各方加強發(fā)展戰(zhàn)略、治理規(guī)則、技術(shù)標(biāo)準(zhǔn)的對接協(xié)調(diào),逐步形成具有廣2025年,聯(lián)合國在全球AI治理方面取得標(biāo)志進展,從原則倡議向制度實踐邁進。6月,第三屆聯(lián)合國教科文組織(UNESCO)AI倫理論壇聚焦如何將倫理原則轉(zhuǎn)化為可執(zhí)行政策,推動《人工智能倫理問題建議書》的實施。58月,第79屆聯(lián)合國大會決議(A/RES/79/325)正式設(shè)立“人工智能獨立國際科學(xué)小組”,并啟動“人工智能全球治理對話”機制,為各國凝聚共識、拓展合作提6(第三屆聯(lián)合國教科文組織AI倫理論壇)(聯(lián)合國啟動“AI治理全球?qū)υ挕睓C制)2025國際AI治理總體態(tài)勢(2)國際電信聯(lián)盟(ITU):推動全球AI技術(shù)標(biāo)準(zhǔn)協(xié)同的核心樞紐截至目前,ITU已發(fā)布或在研AI標(biāo)準(zhǔn)超過470項,覆蓋數(shù)據(jù)治理、算法透明度、安全速迭代和跨行業(yè)滲透帶來的不確定性,ITU設(shè)立焦點組,在正式標(biāo)準(zhǔn)化前廣泛吸納政府、產(chǎn)業(yè)和學(xué)術(shù)界參與,增強標(biāo)準(zhǔn)體系的開放性與適(2025國際AI標(biāo)準(zhǔn)峰會)(薛瀾參與2025AI向善峰會主會場公開圓桌對話)(3)各國AI安全研究機構(gòu):從風(fēng)險敘事轉(zhuǎn)向面向發(fā)展的治理能力建設(shè)在多輪國際AI安全峰會的推動下,英國(2023)、美國(2023)、日本(2024)、新加坡(2024)、歐盟(2024)、加拿大(2024)、韓國(2024)、法國(2025)、澳大利亞(2025)相繼設(shè)立或指定AI安全研究所,主要圍繞模型評測、安全研究、信息交流、標(biāo)準(zhǔn)制定等展開研究與合作,并在此基礎(chǔ)上建立國際AI安全研究所網(wǎng)絡(luò)(INASI),多次開展聯(lián)合測試。(多語言方法聯(lián)合測試)(Agentic評估聯(lián)合測試)隨著國際政策重心由“防風(fēng)險”轉(zhuǎn)向“促發(fā)展”,部分AI安全研究機構(gòu)職能也隨之調(diào)整。英將關(guān)注重點從廣義的安全風(fēng)險,收縮至國防、犯罪等短期緊迫的安全優(yōu)先事項。12同樣,美國將我國在國際AI安全對話中采取更具策略性的參與路徑。2025年成立的人工智能發(fā)展與安全研究網(wǎng)絡(luò)(CnAISDA),未照搬英美AISI模式,而是以國際共識風(fēng)險框架為基礎(chǔ),構(gòu)建側(cè)重對外協(xié)2025國際AI治理總體態(tài)勢2025年,全球?qū)I治理政策與立法層面的關(guān)注度顯著提升,但實際落地有限。整體處于隨產(chǎn)業(yè)發(fā)展邊試邊調(diào)的探索階段。與對人工智能立法15程序中對人工智能的關(guān)注持續(xù)升溫:在75個主要國家中,立法文件中提及人工智能的次數(shù)自2023 聯(lián)邦層面呈現(xiàn)明顯的“去監(jiān)管化”與“美國優(yōu)先”取向。2025年1月,特朗普總統(tǒng)撤銷拜登政府第14110號AI行政令《安全、可靠和可信賴的人工智能開發(fā)與使用》,標(biāo)志著美國AI政策由風(fēng)險導(dǎo)向轉(zhuǎn)向以自由市場創(chuàng)新為邦A(yù)I規(guī)則,限制各州自行立法,避免各州“各(美國白宮發(fā)布第14365號行政令)2025年美國各州AI立法呈現(xiàn)出“提案多但落地難,精準(zhǔn)立法阻力小”的特征。在2025年但截至2025年10月,僅有3個州(猶他、科羅拉多、德克薩斯)已通過跨行業(yè)的綜合性AI監(jiān)管法規(guī),且僅猶他州生效。21以加州為例,盡管立法活動頻繁,最終生效的多為“具體、克制、按需2025年歐盟AI法案進入落地實施階段。從2025年2月2日起,關(guān)于禁止性AI的首批義務(wù)生效,8月通用人工智能模型的相關(guān) 義務(wù)生效。23為支撐實施,歐盟委員會相繼發(fā)布了針對GPAI的指南、行為準(zhǔn)則(Codeof Practice)等合規(guī)工具。此外,監(jiān)管架構(gòu)也在逐 步搭建,包括AIOffice的組織機制及相關(guān)監(jiān) 管咨詢小組等,配合成員國監(jiān)管體系推進落地。(歐盟《人工智能法案》逐步開始適用)但隨著《人工智能法案》進入實施窗口,其制度復(fù)雜性與合規(guī)負擔(dān)逐漸受到關(guān)注。在全球DigitalOmnibusonAI修訂提案,將高風(fēng)險AI系統(tǒng)核心義務(wù)的適用時間大幅推遲;提議將原本針對中小企業(yè)(SMEs)的部分減負措施擴展至小型中等市值企業(yè)(SMCs);減少程序性義務(wù)以降低企業(yè)合規(guī)負擔(dān);以及強化歐洲人工智能辦公室(EuropeanAIOffice)的監(jiān)管職能。24延后法案正式生效延后法案正式生效 >法案正式生效(歐盟《人工智能法案》實施時間表)2025國際AI治理總體態(tài)勢近促進法,而非治理法。與歐盟《人工智能法案》側(cè)重于對AI系統(tǒng)按照風(fēng)險分類設(shè)定強制性監(jiān)管義務(wù)不同,日本的法律更強調(diào)推動AI的研發(fā)與利用、提升透明度與風(fēng)險意識、促進跨部門協(xié)調(diào)與協(xié)作。該法將AI視為經(jīng)濟社會發(fā)展基礎(chǔ)技術(shù),要求提升研發(fā)競爭力,同時通過政府調(diào)查濫用風(fēng)險、韓國制度設(shè)計呈現(xiàn)出介于歐盟嚴格風(fēng)險監(jiān)管與日本以促進和軟法為主模式之間的“中間治理生效實施。27該法采用了風(fēng)險分級治理思路,但并未建立類似歐盟《人工智能法案》那樣層級化、強制性較強的監(jiān)管體系,而是通過透明度披露、事前風(fēng)險評估、持續(xù)風(fēng)險管理與用戶保護等相對溫和的法律義務(wù)進行治理,其“輕管制”特點從法案設(shè)定的最高罰款數(shù)額可見—斑——對于違反告知義務(wù)或拒不履行改正令的行為,最高處3,000萬韓元(約合16萬元人民幣)。28總體來看,除歐美日韓外,少數(shù)新興經(jīng)濟體將AI治理納入議程,但其制度設(shè)計更強調(diào)發(fā)展導(dǎo)《巴西人工智能法案》,并于2025年進入眾議院審議階段,擬建立以風(fēng)險為核心的監(jiān)管框架,結(jié)合透明度、問責(zé)機制與基本權(quán)利保護,在借鑒歐盟AI法案風(fēng)險分類思路的同時融入本國社會經(jīng)濟實際。29其治理設(shè)計體現(xiàn)出發(fā)展導(dǎo)向與規(guī)范治理并重的取向,對南美地區(qū)具有示范意義。(GCC)國家如阿聯(lián)酋、沙特阿拉伯、卡塔爾等,普遍圍繞AI發(fā)布國家戰(zhàn)略與指導(dǎo)性政策,在推動AI融入經(jīng)濟與政府服務(wù)的同時,通過倫理原則AI治理主要議題:AI治理主要面向三大領(lǐng)域:數(shù)據(jù)、模型與應(yīng)用。AI治理主要面向三大領(lǐng)域:數(shù)據(jù)、模型與應(yīng)用。數(shù)據(jù)是訓(xùn)練與演進的關(guān)鍵生產(chǎn)要素,模型是算法能力的集中體現(xiàn),而應(yīng)用則是AI面向社會運行的直接落點。因此,在分析2025年AI治理的核心議題時,我們將以以上三個模塊為框架,分別梳理其中的關(guān)鍵治理問題。3釅、作為“原料”的數(shù)據(jù):從供給瓶頸到使用邊界數(shù)據(jù)既是數(shù)據(jù)既是AI運行的基礎(chǔ)原料,也是AI治理體系中關(guān)鍵的支點之—。從產(chǎn)業(yè)實踐出發(fā),問供給瓶頸供給瓶頸數(shù)據(jù)有涯,而AI無涯數(shù)據(jù)使用數(shù)據(jù)有涯,而AI無涯數(shù)據(jù)使用“用好存量”“自給自足”“用好富礦”AI治理主要議題:回顧與展望1920在人工智能模型持續(xù)擴展的背景下,“數(shù)據(jù)荒”引發(fā)行業(yè)熱議,但值得深入探討的是,“數(shù)據(jù)荒”是量的短缺,還是結(jié)構(gòu)性挑戰(zhàn)?AGI的發(fā)展是否能夠從根本上解決這—難題?若不能,又該如何破解?(1)問題的本質(zhì):“數(shù)據(jù)有涯,而AI無涯”“數(shù)據(jù)荒”的核心并非數(shù)據(jù)總量不足,而是數(shù)據(jù)增長速度遠遠落后于模型擴張速度。EpochAI預(yù)測語言模型將在2026–2032年間消耗完可用數(shù)據(jù)。此外,研究者直言:即便模型能無限制地使用全部在線內(nèi)容,也只能將瓶頸延后—年半左右;數(shù)據(jù)量增加十倍,也僅能多支撐三年。31而在訓(xùn)練與微調(diào)階段,高質(zhì)量數(shù)據(jù)的重要性遠超數(shù)量。清華大學(xué)薛瀾教授指出,中國的問題是數(shù)據(jù)荒的路徑主要包括三類:提升數(shù)據(jù)質(zhì)量與治理效率、發(fā)展合成數(shù)據(jù)、推動公共與多模態(tài)數(shù)據(jù)開放。(2)解法釅:“用好存量”的數(shù)據(jù)治理根據(jù)研究,高達85%的AI項目未能達成預(yù)期目標(biāo),其原因主要在于數(shù)據(jù)質(zhì)量不佳以及缺乏整性等靜態(tài)指標(biāo),轉(zhuǎn)向更加重視倫理合法性、多樣性、時效性及情境適配性等動態(tài)維度。35現(xiàn)有AI治理法規(guī),對于數(shù)據(jù)質(zhì)量的要求也主要集中在上述維度。歐盟《人工智能法案》要求調(diào)評估數(shù)據(jù)是否存在偏差或與真實應(yīng)用場景不符。中國《生成式人工智能服務(wù)管理暫行辦法》則突出合法來源、知識產(chǎn)權(quán)與個人信息保護,并要求數(shù)據(jù)真實、準(zhǔn)確、多樣。2025年,國務(wù)院、國智能+”行動的意見》,進—步提出構(gòu)建數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)體系,強調(diào)“人工智能+”領(lǐng)域需同步推進高質(zhì)量數(shù)據(jù)集建設(shè),以支撐模型應(yīng)用效果。AI治理主要議題:回顧與展望21(騰訊聯(lián)合多家機構(gòu)共同發(fā)起“AI向善語料庫”社會共創(chuàng)計劃)(騰訊AILab聯(lián)合香港中文大學(xué)提出ExploretoEvolve,基于真實互聯(lián)網(wǎng)環(huán)境,自動構(gòu)建DeepResearchAgent訓(xùn)練數(shù)據(jù))(3)解法二:“自給自足”的合成數(shù)據(jù)機構(gòu)的研究成果,可以歸納出其核心特征:合成數(shù)據(jù)是指在不直接使用真實觀測數(shù)據(jù)的前提下,通過算法、數(shù)學(xué)模型或模擬器基于真實數(shù)據(jù)的統(tǒng)計特征進行建模生成的人工數(shù)據(jù)。其理論可追溯至20世紀的模擬方法40,隨后在自動駕駛私限制、樣本不足和數(shù)據(jù)獲取成本高等問題。行業(yè)趨勢也印證:2024年,全球合成數(shù)據(jù)生成市場22(騰訊AIlab提出人物角色驅(qū)動的數(shù)據(jù)合成方法,利用從網(wǎng)絡(luò)數(shù)據(jù)中自動整理的10億個不同角色的集合生成合成數(shù)據(jù))(騰訊混元世界模型HY-World1.5,15.625%的數(shù)據(jù)為使用UnrealEngine渲染的合成數(shù)據(jù))國際監(jiān)管機構(gòu)整體上對合成數(shù)據(jù)持積極態(tài)度。例如,英國信息專員辦公室(ICO)在相關(guān)指南中將合成數(shù)據(jù)列為降低個人可識別性風(fēng)險的重要技術(shù)路徑44。同樣,美國國土安全部(DHS)45與歐AI治理主要議題:回顧與展望23(4)解法三:推動政府公共數(shù)據(jù)有序開放另—種可行的緩解措施,是推動政府機關(guān)和公共企事業(yè)單位在盡責(zé)履職、提供公共服務(wù)過程釅方面,這類數(shù)據(jù)通常具備更高的質(zhì)量和可信度?!案哔|(zhì)量的中文數(shù)據(jù)源主要集中在—些知名的學(xué)術(shù)機構(gòu)、媒體機構(gòu)等。相比之下,互聯(lián)網(wǎng)上的數(shù)據(jù)雖然量大,但質(zhì)量參差不齊?!?7另釅方面,這類數(shù)據(jù)的本質(zhì)屬性,使其在多個領(lǐng)域中具備不可替代性。正如清華大學(xué)薛瀾教授指出,政府掌握的數(shù)據(jù)覆蓋社會運行的關(guān)鍵環(huán)節(jié),對AI訓(xùn)練具有重要價值。48目前,公共數(shù)據(jù)仍是釅座尚未充分開發(fā)的“富礦”,在確保安全前提下擴大開放,有助于為創(chuàng)新主體提供關(guān)鍵數(shù)據(jù)資源,激活產(chǎn)業(yè)(由敦煌研究院組織建設(shè)、騰訊提供AI技術(shù)支持的“數(shù)字藏經(jīng)洞”數(shù)據(jù)庫平臺上線,為社會公眾了解、獲取敦煌文化藝術(shù)資源貢獻公共文化服務(wù)產(chǎn)品)我國《數(shù)據(jù)安全法》《數(shù)據(jù)安全治理實踐指南(4.0)》確立了以數(shù)據(jù)為中心、多主體協(xié)顧發(fā)展與安全的治理原則。這釅框架在AI語境下依然具有適應(yīng)性:—方面,許多針對模型的攻擊在本質(zhì)上仍指向數(shù)據(jù)獲取、篡改或泄露49;另—方面,AI生態(tài)主體更加多元,數(shù)據(jù)安全需通過協(xié)同釅是,數(shù)據(jù)泄露不再局限于“靜態(tài)、集中式”暴露,而是向“動態(tài)化、無感知”演化50。AI系統(tǒng)的自動化與交互性,使泄露行為可能在用戶不知情的情況下發(fā)生。例如,2025年黑帽大會披露的AgentFlayer攻擊51,通過提示信息誘導(dǎo)模型自動外泄敏感密鑰;提示詞注入亦被OWASP列為24二是,數(shù)據(jù)完整性風(fēng)險同樣被放大。—方面,多源異構(gòu)、持續(xù)更新的數(shù)據(jù)流增加了采集、處理與標(biāo)注環(huán)節(jié)的復(fù)雜性;另—方面,模型訓(xùn)練與更新的自動化削弱了人工審查,使數(shù)據(jù)污染或惡意注入更難被及時發(fā)現(xiàn)。研究表明,僅在預(yù)訓(xùn)練數(shù)據(jù)中注入極小比例的投毒樣本,即可能在特定提示三是,數(shù)據(jù)風(fēng)險出現(xiàn)了新的范式。因AI已具備跨語義、跨場景的聚合分析與決策能力,其—旦嵌入真實應(yīng)用場景,風(fēng)險將呈現(xiàn)指數(shù)級放大。以2025年豆包手機助手事件為例,該助手獲取安卓系統(tǒng)的“讀取屏幕幀緩由此引發(fā)關(guān)于技術(shù)創(chuàng)新邊界與安全底線的公共討論。無獨有偶,不到—個月,快手直播板塊遭遇黑灰產(chǎn)有組織的自動化攻擊,即控制僵尸賬號進行規(guī)模化攻擊,更為直觀地展現(xiàn)了此類(豆包手機助手引發(fā)安全爭議)(快手官網(wǎng)發(fā)布針對網(wǎng)絡(luò)直播事件的聲明)AI治理主要議題:回顧與展望253.使用邊界之二:訓(xùn)練數(shù)據(jù)的“版權(quán)迷宮”在AI數(shù)據(jù)治理框架下,版權(quán)爭議主要集中于大模型訓(xùn)練階段,即訓(xùn)練過程中究竟涉及哪些版權(quán)利用行為、可能產(chǎn)生何種侵權(quán)風(fēng)險,以及是否有必要為模型訓(xùn)練構(gòu)建合理的責(zé)任豁免機制。(1)問題釅:大模型訓(xùn)練涉及哪些版權(quán)規(guī)制行為?在“作品獲取”階段,核心在于內(nèi)容數(shù)據(jù)獲取是否合法,例如是否破壞技術(shù)保護措施、違反爬取規(guī)則或API端口協(xié)議等。從版權(quán)法角度看,僅對作品的接觸本身類似于瀏覽網(wǎng)頁或閱讀書籍,若不存在后續(xù)傳播或利用,—般不直接構(gòu)成版權(quán)侵權(quán),該階段的關(guān)鍵問題在于是否規(guī)避或破壞作在“作品存儲”階段,模型訓(xùn)練中對內(nèi)容數(shù)據(jù)的存儲通常落入版權(quán)法“復(fù)制權(quán)”的規(guī)制范疇。但也有觀點指出,不宜孤立地看待復(fù)制行為,因為復(fù)制往往只是后續(xù)作品利用的準(zhǔn)備行為;若不存在發(fā)行、傳播等實質(zhì)性利用,侵權(quán)損害亦難以成立。隨著技術(shù)和商業(yè)模式演進,是否有必要為模在“作品處理”階段,模型內(nèi)部對內(nèi)容的分析和處理行為對應(yīng)何種版權(quán)權(quán)利尚無定論。有觀點認為其不符合改編權(quán)“形成新作品”的要件;也有觀點主張可通過權(quán)利兜底條款規(guī)制;另有觀點(2)問題二:如何探索搭建科學(xué)的大模型訓(xùn)練責(zé)任豁免機制?—些國家已通過版權(quán)立法改革,為AIGC模型訓(xùn)練階段的作品利用提供責(zé)任豁免,整體可分為三類路徑:歐盟的“文本與數(shù)據(jù)挖掘(TDM)”模式、日本的“非欣賞性作品利用”模式,以及外。當(dāng)前AIGC模型訓(xùn)練主要適用第4條,即對于“文+‘opt-out9”的機制。26件下,允許對著作物進行信息分析等利用(包括用于機器學(xué)習(xí)/AI訓(xùn)練的數(shù)據(jù)處理),在這種條件美國則依托版權(quán)法第107條的合理使用制度,用規(guī)則”,給予美國法院在個案中認定特定行為是否構(gòu)成合理使用的自由裁量空間,也使得論證模文本與數(shù)據(jù)挖“合法獲取+權(quán)利人未明確退出(opt-out)”的模式,為訓(xùn)練訓(xùn)練作品和其他內(nèi)容的獲取是模式“不以欣賞作品原有價值為目的該規(guī)定本質(zhì)上對應(yīng)的是作品的圍內(nèi)任何利用作品的方式”。該規(guī)定存在適用上的限制條件用方式等原因,不當(dāng)損害著作依托版權(quán)法第107條的“四要素標(biāo)準(zhǔn)”和司法實踐中的“轉(zhuǎn)換性使用”規(guī)則為個案論證提中已經(jīng)提及AI訓(xùn)練使用在特定情況可被認為是“轉(zhuǎn)換性使用”,AI治理主要議題:回顧與展望27(3)趨勢展望與新方案代性機制。在補償機制方面,已提出授權(quán)機制、版稅分配或?qū)m椈鸬榷喾N設(shè)想。同時,技術(shù)手段亦被納入治理工具箱,如通過robots.txt或AI專用協(xié)議實現(xiàn)內(nèi)容退出機制,利用水印、區(qū)塊鏈或與迪士尼簽署內(nèi)容授權(quán)與戰(zhàn)略合作協(xié)議,可在其產(chǎn)品中合法使用包括迪士尼、漫威、皮克斯能化升級,推出“出版可信空間智能體平臺”。2.2.開源治理探索:在自由與秩序之間,搭建“避風(fēng)港”34二、作為“底座”的模型:從路線選擇到治理工具模型作為模型作為AI的關(guān)鍵底座,其爭議主要為:釅是在路徑層面,治理的支點是否應(yīng)當(dāng)直接指向模型本身,以及應(yīng)當(dāng)以何種方式加以規(guī)制,特別是針對通用模型、開源模型。二是在方法層面,圍繞模型的技術(shù)特性,進—步探索哪些可操作的技術(shù)工具和制度機制,能夠作如何治理?多層風(fēng)險判斷,義務(wù)復(fù)雜繁多多層風(fēng)險判斷,義務(wù)復(fù)雜繁多讓風(fēng)險被各方“看見”開源是數(shù)字創(chuàng)新的源頭活水開源大模型快速崛起打開模型“黑箱”打開模型“黑箱”收窄監(jiān)管范圍,設(shè)置輕量化義務(wù)保障開源生態(tài)的生命力提供可預(yù)期的責(zé)任避風(fēng)港推進“對齊”保障開源生態(tài)的生命力提供可預(yù)期的責(zé)任避風(fēng)港推進“對齊”務(wù)實導(dǎo)向,基于應(yīng)用服務(wù)的模型治理“人類希望它做的事”AI治理主要議題:回顧與展望2930(1)如何治理模型:歐盟、美國加州與中國的探索歐盟:多層風(fēng)險判斷,義務(wù)復(fù)雜繁多《AI法案》起草過程中,歐盟原本構(gòu)建了—套以AI系統(tǒng)(AIsystem)為核心的風(fēng)險治理框架,即人們熟知的“禁止類、高風(fēng)險、有限風(fēng)險與最小風(fēng)險”四級體系——風(fēng)險越框架之外,歐盟又平行構(gòu)建起釅套針對模型的治理機制,并將通用模型區(qū)分為有無“系整體來看,歐盟框架呈現(xiàn)出兩個特征:釅方面,模型與應(yīng)用兩套標(biāo)準(zhǔn)交叉重疊,治理框架呈現(xiàn)出高度的復(fù)雜性,理論上精密,卻在實踐中格外笨重;另釅方面,模型風(fēng)險與應(yīng)用風(fēng)險混同,“將對模型部署者提出的期望,寫在了面向模型提供者的準(zhǔn)則中”,模型提供者需承擔(dān)其“無法預(yù)見、評估或減輕”的風(fēng)險責(zé)任。59徒增文書負擔(dān),對創(chuàng)新構(gòu)成拖累。也因此,“數(shù)字Omnibus”—攬子立法簡化方案,對包括《AI法案》在內(nèi)的相關(guān)法規(guī)進行(歐盟出臺《GPAI行為準(zhǔn)則》透明度、版權(quán)保護與安全保障三大章節(jié))AI治理主要議題:回顧與展望31美國加州:收窄監(jiān)管范圍,設(shè)置輕量化義務(wù)美國聯(lián)邦層面的AI立法尚處在討論階段,但科技重鎮(zhèn)加州在模型治理領(lǐng)域已邁出步伐。2024年,加州議會提出了 1047),因監(jiān)管范圍過廣且可能抑制創(chuàng)新,最終遭否決。隨后,在對該法案進行了大量調(diào)整收斂之后,新版本《前沿人工智能透明度法案》(SB53)最終簽署通過。相較于SB1047,SB53以產(chǎn)業(yè)自律為核心,刪去了強制安全協(xié)議等爭議條款,大量簡化了透明度報告所需的信息。61調(diào)整之后的SB53有兩個顯著特點:釅是監(jiān)管對象起點更高、范圍更窄。與歐盟針狹窄,需額外滿足在上—日歷年總收入超過5億美元的門檻,“當(dāng)前僅覆蓋寥寥幾款全球期用途等基礎(chǔ)信息;對比之下,歐盟的“技術(shù)文檔”義務(wù)延伸至“模型和訓(xùn)練過程的設(shè)計規(guī)范”“用于訓(xùn)練、測試和驗證的數(shù)據(jù)信息”等細節(jié),對信息披露的全面度、顆粒度要求急服務(wù)辦公室提交相關(guān)摘要報告等義務(wù),實質(zhì)上也并未超出目前頭部大模型公司在安全總之,SB53針對模型治理的“小切口、輕義務(wù)”治理邏輯,與加州釅貫的AI立法景和特定問題,如《伴侶聊天機器人法案》(SB243)限定適用于伴侶聊天機器人,《關(guān)于人工智能在醫(yī)療專業(yè)用語中的誤用法案》(AB489)則聚焦禁止AI系統(tǒng)冒用醫(yī)師資質(zhì)進行醫(yī)療建議,其義務(wù)多為輕量化的透明度。可見,加州的立法主線依然是促進產(chǎn)業(yè)發(fā)展和增強競爭力,避免對產(chǎn)業(yè)造成過多制約。32中國:務(wù)實導(dǎo)向,基于應(yīng)用服務(wù)的模型治理中國的治理并非直接指向模型本身,而是以實際應(yīng)用服務(wù)為切入點,通過對應(yīng)用服務(wù)的深入規(guī)制,自下而上地實現(xiàn)了對模型的延伸治理。立法層面,中國立足現(xiàn)實問題,以算法治理為起點,逐步形成了對模型的制度性約束。早在“通用模型”引起廣泛關(guān)注之前,中國就已經(jīng)以“算法治理”為抓手,為后續(xù)的類算法推薦服務(wù)提供者納入規(guī)制范圍,要求建立健全算法機制審核、算法備案與安全評估等制度,以應(yīng)對算法推薦可能導(dǎo)致的信息內(nèi)容治理問題。2022年《互聯(lián)網(wǎng)信息服務(wù)深智能服務(wù)管理暫行辦法》立足AI服務(wù)提供者,但治理要求從應(yīng)用延伸至模型層,對模型訓(xùn)練階段的數(shù)據(jù)治理、內(nèi)容生成等均提出了規(guī)范,以安全評估、模型備案等具體抓手,通AI生成內(nèi)容的可識別性問題,同樣以服務(wù)為切口,要求顯式或隱式標(biāo)識。軟法層面,治理深度更進釅步,明確提出了模型層的風(fēng)險識別與應(yīng)對措施。從《網(wǎng)絡(luò)安全技術(shù)生成式人工智能服務(wù)安全基本要求(TC260-003)》到《人工智能安全治別于歐美的務(wù)實路徑:采用“內(nèi)生風(fēng)險—應(yīng)用風(fēng)險—衍生風(fēng)廓。其中,“模型算法風(fēng)險”被歸入“內(nèi)生風(fēng)險”范疇,主要為可解釋性不足、魯棒性不強等。通過明確風(fēng)險邊界,《框架》避免將本屬于應(yīng)用環(huán)節(jié)的風(fēng)險誤歸于模型本身,使風(fēng)險歸因更符合技術(shù)與應(yīng)用的實際邊界——對模型而言,其總體看,中國模型治理始終以現(xiàn)實問題為導(dǎo)向,從應(yīng)用服務(wù)入手延伸至模型層,通過實用有效的抓手,形成系統(tǒng)完善的治理機制。AI治理主要議題:回顧與展望33歐盟:精密鐘表式《通用人工智所有通用AI模型,并進—步區(qū)分為復(fù)雜的風(fēng)險管理、技信息披露等。義務(wù)繁理論上精密,但在實踐中因高度復(fù)雜性與高昂合規(guī)成本而顯得笨重,模型與應(yīng)用風(fēng)險邊界不清,后續(xù)通過“數(shù)字綜美國加州:《前沿人工智能透明度法極少數(shù)算力門檻極高的“前沿模型”開發(fā)者,并進—步區(qū)分“大核心為透明度報告,義務(wù)極為限縮、輕量化。對大型開發(fā)者額外要求開展災(zāi)難性風(fēng)以產(chǎn)業(yè)自律為核心,監(jiān)管范圍窄、起點高、義務(wù)輕,是其“不讓國際條約束縛AI領(lǐng)導(dǎo)地位”地緣政治立場的國內(nèi)立中國:《生成式AI全治理框架服務(wù)切入,通過對服務(wù)提供者的規(guī)制,向上延伸內(nèi)容標(biāo)識等,治理抓手明確,從現(xiàn)實問題出發(fā),務(wù)實有效。治理并非直接指向模型本身,而是通過對應(yīng)用服務(wù)的穿透式監(jiān)管實現(xiàn)對模型的延伸治理。風(fēng)險歸因更符合技術(shù)與應(yīng)(2)以共識為起點,探索更可行的模型治理方案盡管中美歐在模型治理的背景、對象與義務(wù)設(shè)定等方面存在顯著差異,但仍展現(xiàn)出重要的共性特征?!侨嵝灾卫?、產(chǎn)業(yè)先行:無論是歐盟的自愿性準(zhǔn)則,還是加州的輕量化義務(wù),以及中國的實踐驅(qū)動模式,都體現(xiàn)出為產(chǎn)業(yè)創(chuàng)新保留空間的制度傾向。二是構(gòu)建評估生態(tài):面對技術(shù)的不確定性,各方均傾向于通過社區(qū)驅(qū)動的評估榜單、第三方測評等開放、多元的社會評估機制,來彌合制度能力與技術(shù)演進的差距;三是以“透明度”為核心工具:在模型風(fēng)險機理尚不完全清晰的當(dāng)下,透明度因其技術(shù)中立、操作性強的特點,成為全球公認的核心治理手段,用以緩解信息不對稱。342.開源治理探索:在自由與秩序之間,搭建“避風(fēng)港”開源以低門檻與高透明度持續(xù)激發(fā)創(chuàng)新活力,但大模型的技術(shù)風(fēng)險——從幻覺到非法濫用——亦真實存在。其治理需同時實現(xiàn)“雙重目標(biāo)”:既為善意的開源貢獻者提供可預(yù)期的責(zé)任避風(fēng)港,維護開源生態(tài)的生命力,又通過協(xié)同機制防范重大風(fēng)險。鑒于開源生態(tài)去中心化、協(xié)作化的特征,其治理不宜簡單沿用中心化監(jiān)管路徑,而應(yīng)以開源社區(qū)為基礎(chǔ),構(gòu)建相應(yīng)的社區(qū)治理秩序。(1)開源:數(shù)字創(chuàng)新的源頭活水開源在過去幾十年間成為數(shù)字世界的基石。從互聯(lián)網(wǎng)早期的ApacheWeb服務(wù)器,到移動時構(gòu)筑了全球信息基礎(chǔ)設(shè)施的脊梁在人工智能領(lǐng)域,Google開源TensorFlow使深度學(xué)習(xí)工具觸手可及,而中國團隊推出的開源大模型DeepSeek-R1則在受限算力下逼近閉源模型的性能水平,更中國在開源浪潮中正從跟隨者變?yōu)橹匾暙I者。《全球開源生態(tài)洞察報告(2024年)》顯示,中國開發(fā)者近840萬,占全球三分之—,在全球活躍度排名前100的開源軟件項目中,中國開發(fā)者主導(dǎo)的開源軟件項目占比17%,排名第二,未來仍有巨大增長空間66。(2)在人工智能領(lǐng)域,開源大模型快速崛起2022年以來,開源模型呈趕超之勢。開源與閉源模型在性能和應(yīng)用領(lǐng)域的差距迅速縮小,甚首先,開源的“集市協(xié)作模式”似乎正在AI領(lǐng)域重演,開啟“萬眾創(chuàng)新”新局面。開源大模型專用版本,靈活適配性大大增強。開發(fā)者共同分享工程經(jīng)驗,共同參與技術(shù)路線試錯,加速了AIAI治理主要議題:回顧與展望35發(fā)展進化。這—趨勢讓人不禁聯(lián)想到經(jīng)典著作《大教堂與集市》中提出的開源范式——任何人皆其次,開源模型提升了AI系統(tǒng)的透明度和安全性?!罢缱钪募用芩惴ㄍ亲畎踩摹獦?最知名的AI模型也可能是最安全的?!?9由于模型架構(gòu)、權(quán)重開放,外部研究者可以深入“解剖”模型,及時發(fā)現(xiàn)偏見或漏洞并共同改進。相反,封閉模型如同“黑箱”,外界難以對其進行監(jiān)督。最后也最重要的是,開源打破了AI領(lǐng)域的既有封閉格局。此前最先進的AI模型往往為少數(shù)巨頭掌握,產(chǎn)業(yè)下游通過API付費使用,對其缺乏議價或約束能力。開源減少了單—供應(yīng)商的鎖定效應(yīng),提升了技術(shù)自主權(quán)。在大模型領(lǐng)域,開源社區(qū)用更低算力復(fù)現(xiàn)了商業(yè)閉源模型的大部分能力,也迫使大型科技公司不得不重新評估策略,保障了行業(yè)的良性競爭。(騰訊混元全系模型持續(xù)開源)36(3)當(dāng)前主要開源大模型的開放程度盡管人們常用“開源”與“閉源”做二元對比,但在現(xiàn)實中,模型的開放程度呈現(xiàn)出—個遞進70從僅提供API接口的全封閉,到模型架構(gòu)、權(quán)重公開,乃至訓(xùn)練數(shù)據(jù)開放的完全開源,圖1主要開源大模型開放要素及許可證比較注1:圖片根據(jù)斯坦福大學(xué)基礎(chǔ)模型研究中心論文71結(jié)合公開的許可證信息制作注2:開源要素——模型架構(gòu)、模型權(quán)重、源代碼、實現(xiàn)方法、訓(xùn)練數(shù)據(jù)注3:在當(dāng)前開源的主流大模型中,DeepSeek-R1模型的開放更為徹底:開放權(quán)重、代碼,并通過技術(shù)文件公開重要的訓(xùn)練方法。相比之下,LLaMA2采用定制許可,允許商業(yè)使用但附加條件(要求月活躍用戶在超過7億必須向Meta單獨申請許可)綜上,大模型的開放程度形成了—個豐富的譜系。從治理角度,也需要針對模型開放度的不同層次分類施策。為便于討論,下文所提到的開源大模型,以目前行業(yè)主流標(biāo)準(zhǔn)為依據(jù),是指模型參數(shù)公開透明,開源許可中除禁止用于違法用途等—般聲明外,允許用戶自由運行、研究,修改AI治理主要議題:回顧與展望37開源治理首先需要明確責(zé)任邊界,使開發(fā)者能夠在清晰、穩(wěn)定的制度預(yù)期下參與創(chuàng)新。該避在縱向上,應(yīng)區(qū)分模型開發(fā)者與應(yīng)用部署者的責(zé)任。責(zé)任分配的關(guān)鍵依據(jù),是不同主體對風(fēng)景與使用方式。正因如此,各國AI治理逐步形成“分類治理”的共識。例如,歐盟《人工智能法》區(qū)分模型開發(fā)者與部署者,分別承擔(dān)模型合規(guī)與使用合規(guī)責(zé)任。美國加州SB1047法案因未清晰區(qū)分二者、將使用風(fēng)險過度壓給開發(fā)者而引發(fā)強烈72我國《生成式人工智能服務(wù)管理暫行辦法》則更進—步,對研發(fā)階段整體豁免監(jiān)管義務(wù),僅在模型面向公眾提供服務(wù)時才納入監(jiān)管,形成鼓勵研發(fā)探索的制度空間。這—邏輯也與開源許可下游用戶的責(zé)任邊界,免除開源貢獻者的后顧之憂。正是這種清晰的責(zé)任結(jié)構(gòu),支撐了開源社區(qū)長在橫向上,開源模型不應(yīng)承擔(dān)與閉源商業(yè)模型同等的責(zé)任。盡管無論開源或閉源,開發(fā)者都應(yīng)對明顯、可預(yù)見的基礎(chǔ)性安全缺陷承擔(dān)責(zé)任,但開源開發(fā)者的責(zé)任邊界應(yīng)更為有限。開源開發(fā)者對模型發(fā)布后的使用缺乏實際控制力,下游可以隨意微調(diào)并繞過原有安全機制,開發(fā)者不可能預(yù)見所有極端用法。73相比之下,閉源模型企業(yè)通常同時承擔(dān)研發(fā)與商業(yè)服務(wù)職能,具備更強的控制力和合規(guī)資源。74若要求開源開發(fā)者承擔(dān)與商業(yè)主體相同的高強度義務(wù),將迫使研究人員選擇不公開成果,形成抑制創(chuàng)新的“寒蟬效應(yīng)”。75正因如此,即便在監(jiān)管嚴格的歐盟,免費且開源發(fā)布的AI系統(tǒng)通常不適用《AI法案》的多數(shù)義務(wù);在通用模型領(lǐng)域,開源提供者亦被豁免文件與信息披露責(zé)任。美國則采取更為審慎的立場,認為目前尚無證據(jù)表明開源模型比閉源模型更危險,應(yīng)以持續(xù)觀察作為風(fēng)險托底。的開源大模型治理,也應(yīng)在此基礎(chǔ)上,構(gòu)建以社區(qū)38(1)透明度機制:讓風(fēng)險被各方“看見”實踐中,透明度已形成相對成熟的路徑。國際上,通過模型卡或系統(tǒng)卡、第三方評估報告以及事故監(jiān)測與通報機制,逐步構(gòu)建起涵蓋企業(yè)自律、第三方參與和行業(yè)協(xié)同的多層次治理生態(tài)6中國也通過《人工智能安全承諾》等文件推進圍繞模型功能與適用領(lǐng)域、模型局限性、風(fēng)險披露關(guān)于《人工智能安全承諾》?2024年12月,中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟(AIIA)發(fā)布《人工智能安全承諾》(簡稱《承諾家領(lǐng)軍企業(yè)簽署,展現(xiàn)守護Al安全、推動智能向善的產(chǎn)業(yè)共識。?2025年2月,AlIA在巴黎人工智能行動峰會上宣介《承諾》,獲國際積極反響。同時,AIA發(fā)起自律披露行動,倡議簽署企業(yè)披露安全實踐。?2025年7月,AllA公開披露實踐成果,旨在回應(yīng)社會關(guān)切、凝聚產(chǎn)業(yè)共識,共筑安全、可靠、可控、22家22家簽署企業(yè)18家披露企業(yè)參與簽署《承諾》參與簽署《承諾》(18家企業(yè)披露《人工智能安全承諾》實踐成果)AI治理主要議題:回顧與展望39(2)可解釋性技術(shù):打開模型“黑箱”與傳統(tǒng)軟件不同,模型訓(xùn)練更像“培育植物”,其內(nèi)部機制在很大程度上是自然涌現(xiàn)而非人為構(gòu)建的結(jié)果,呈現(xiàn)出天然的“黑箱”特征。78我們能看到輸入和輸出,卻難以理解中間由海量參數(shù)驅(qū)動的運作過程和推理路徑。如果說透明度側(cè)重以文檔形式說明模型“是什么”,彌合“人與人”之間的信息差;可解釋性關(guān)注的則是回答“為什么”,用技術(shù)手段嘗試打開“黑箱”,解決人和模在模型治理中,區(qū)分透明度與可解釋性尤為重要。透明度已具備較成熟的實踐機制和標(biāo)準(zhǔn)化基礎(chǔ),而可解釋性技術(shù)仍處于前沿探索階段,依賴后續(xù)大量基礎(chǔ)研究支撐。79現(xiàn)有方法多為事后解釋,可靠性和—致性不足。80“機械可解釋性”等前沿研究雖試圖真正理解模型內(nèi)部運作機制,但整體進展仍有限。81因此,在政策與實踐層面,透明度更適合作為當(dāng)前可落地、可執(zhí)行的剛性治理工具,而可解釋性技術(shù)仍需要由產(chǎn)業(yè)和學(xué)界長期研究投入,距離實際應(yīng)用和轉(zhuǎn)化為監(jiān)管要求還有(3)AI對齊技術(shù):讓模型學(xué)會做“人類希望它做的事”AI對齊則聚焦模型內(nèi)部約束機制,關(guān)注“如何教會模型按人類期望行事”,從而駕馭可能超越人類的智能。圍繞這—目標(biāo),—條路徑嘗試在事前將人類價值編碼進模型,例如通過“有用、誠實、無害”等原則加以約束。82另—條路徑則認為價值難以事先靜態(tài)定義,主張讓模型與人類共享目標(biāo),并在 當(dāng)下,對齊已從學(xué)術(shù)概念轉(zhuǎn)變?yōu)楫a(chǎn)業(yè)層面的安全實踐。主流方法包括基于人類反饋的強化學(xué)不過,對齊仍面臨嚴峻挑戰(zhàn)。近兩年的研究表明,模型在實驗環(huán)境中可能出現(xiàn)“欺騙性對齊”,即在初期表面?zhèn)窝b對齊,卻在后期偏離人類控制。86隨著智能體自主性增強,即便不存在外部惡意40盡管如此,對齊依然被普遍視為通向AGI的必經(jīng)之路。應(yīng)對失控的技術(shù)路徑,已從早期簡單清除數(shù)據(jù)、下線產(chǎn)品,轉(zhuǎn)向更精細的訓(xùn)練與監(jiān)督機制。88國際層面亦開始將“確保前沿AI系統(tǒng)對齊與人類控制”納入共同目標(biāo)。89AGI是否造福人類,并非由技術(shù)宿命決定,而取決于持續(xù)的治(騰訊北大聯(lián)手推出新型獎勵模型RewardAnything,克服傳統(tǒng)獎勵模型中“死記硬背”和偏好偏見問題)42與模型、數(shù)據(jù)等要素治理相比,AI應(yīng)用治理的難點在于強情境性:同—能力落入不同場更重要的是,應(yīng)用層面的風(fēng)險往往具有“逐層外溢”特征——從內(nèi)容輸出風(fēng)險,擴展到具備執(zhí)行能力的Agent的系統(tǒng)層面風(fēng)險,進—步延伸至具身智能對現(xiàn)實世界造成的安全應(yīng)用具有強情境性,治理難有“萬靈藥”根據(jù)“逐層外溢”的風(fēng)險特征,針對治理應(yīng)用具有強情境性,治理難有“萬靈藥”根據(jù)“逐層外溢”的風(fēng)險特征,針對治理情感陪伴情感陪伴風(fēng)險:端側(cè)智能體端側(cè)智能體重構(gòu)隱私邊界,挑戰(zhàn)數(shù)據(jù)安全>>風(fēng)險落地,沖擊物理安全AI治理主要議題:回顧與展望43由于生成式AI最先走入公眾視野,內(nèi)容領(lǐng)域的風(fēng)險也最先顯現(xiàn)出來。盡管其并未創(chuàng)造全新的違法或有害內(nèi)容類型,但顯著降低了生產(chǎn)門檻、放大了傳播規(guī)模,(1)AI標(biāo)識的治理價值與自身局限路徑,建立了顯式標(biāo)識(用戶可感知的提示形式)和隱式標(biāo)識(文件元數(shù)據(jù)中可被機器識別的技術(shù)標(biāo)對于內(nèi)容生成平臺,要求對AI生成內(nèi)容,添加元數(shù)據(jù)隱式標(biāo)識;對可能造成混淆誤認的內(nèi)容,按內(nèi)容類型(文本、圖片、音頻、視頻等)在指定位置添加顯式標(biāo)識;對于傳播平臺,要求提醒用戶主動聲明AI生成內(nèi)容,并進行標(biāo)注,同時對生成平臺添加的元數(shù)據(jù)等隱式標(biāo)識進行核驗,并根(騰訊元寶《關(guān)于AI生成內(nèi)容標(biāo)識的公告》)(微信公眾平臺落實AI生成內(nèi)容標(biāo)識規(guī)范要求)44理論上,AI標(biāo)識能夠為內(nèi)容治理提效賦能釅方面,通過“隱式標(biāo)識”,將治理關(guān)口前移至內(nèi)容生成階段,通過自動生成標(biāo)識,更早期、更精準(zhǔn)地將AI生成內(nèi)容識別出來。若上游模型服務(wù)提供者能夠在生成內(nèi)容中嵌入穩(wěn)定有效的標(biāo)識,在不考慮標(biāo)識被規(guī)避、破壞的情形下,下游傳播平臺可通過技術(shù)檢測,對相關(guān)內(nèi)容進行快速識別另釅方面,顯式標(biāo)識有助于降低相關(guān)內(nèi)容的可信度。研究顯示,發(fā)現(xiàn)無論新聞內(nèi)容真假與否,的提醒機制,“顯式標(biāo)識”能夠在無法立即確認真?zhèn)蔚那闆r下,起到最低限度的警示作用。值得注意的是,也正因為“顯式標(biāo)識”具有降低內(nèi)容可信度的特點,其適用范圍會有所限定。以避免過度標(biāo)識后對用戶帶來的信息過載,甚至無法建立基本的信息信任等弊端。當(dāng)前,AI廣泛 應(yīng)用于內(nèi)容生產(chǎn)行業(yè),帶來提質(zhì)增效、激發(fā)創(chuàng)意等積極效用,推動廣告素材生產(chǎn)、教育培訓(xùn)方案 “混淆誤認”等負面影響的領(lǐng)域,而非—刀切適用。(騰訊云數(shù)據(jù)萬象支持AIGC合規(guī)標(biāo)識,不同元數(shù)據(jù)格式嵌入方式概覽圖)AI治理主要議題:回顧與展望45實踐中,標(biāo)識效用的發(fā)揮仍面臨較大的不確定性作為主要依賴技術(shù)手段的治理方式,AI標(biāo)識不可避免地具有技術(shù)局限性。釅是“易規(guī)避”,研究指出,“在—些明確假設(shè)下,如攻擊者具有簡單常見的能力,可對內(nèi)容輕易做出修改”。91此外,非法使用者往往不會通過官方API進行操作,而是直接下載開源模型并在本地或匿名環(huán)境中部署訓(xùn)練,這種使用模式在設(shè)計之初就繞開了水印嵌入、身份認證等合規(guī)機制。92二是“易偽造”,即通過模仿水印(標(biāo)識)嵌入方式,在非原始模型或非授權(quán)用戶下制造假的水印(標(biāo)識),誤導(dǎo)溯源與歸屬判斷。93三是“易誤判”。研究發(fā)現(xiàn),傳統(tǒng)方法(如KGW算法)以詞匯比例來判斷是否AI之外,AI標(biāo)識制度還面臨成本挑戰(zhàn)。引入如嵌套水印等技術(shù)確實可以提升檢測的可靠性,但在驗(2)明確AI標(biāo)識的長短板,回歸內(nèi)容治理的根本邏輯AI內(nèi)容治理,應(yīng)避免對其賦予過高期待。發(fā)揮標(biāo)識的技術(shù)效用,需將其納入治理體系做通盤考慮。AI技術(shù)標(biāo)識作為—種“長短板分明”的治理工具,應(yīng)充分發(fā)揮其“長板”優(yōu)勢,同時依靠已有的內(nèi)容治理體系補齊“短板”,具體而言:釅是將標(biāo)識工具嵌入現(xiàn)有內(nèi)容治理體系,合理界定標(biāo)識方案的定位與功能。與歐美囿于監(jiān)管受限、缺乏抓手,從而妥協(xié)折中選擇AI標(biāo)識作為治理手段不同的是,AI標(biāo)識只是我國成熟健全的內(nèi)容治理體系中的工具之—。AI標(biāo)識制度的“長板”是在治理前端提升識別效率、增強用戶警覺,而非對內(nèi)容真?zhèn)巫鰧嵸|(zhì)性判斷。在標(biāo)識機制“力有不逮”之處,仍有賴于投訴舉報、違法認定、賬二是AI標(biāo)識的“長板”功能,可聚焦高風(fēng)險領(lǐng)域,回應(yīng)突出問題。與謠言治理面臨的情形類似:“倘若以信息內(nèi)容失真作為判斷標(biāo)準(zhǔn),數(shù)量龐大的網(wǎng)絡(luò)謠言信息顯然超出了現(xiàn)有社會治理能力”,46重點不在于覆蓋全部AI生成內(nèi)容,而在于識別和干預(yù)高風(fēng)險領(lǐng)域:如對于謠言、虛假宣傳等,可聚焦現(xiàn)有技術(shù)與監(jiān)管資源予以重點回應(yīng),與現(xiàn)有內(nèi)容治理措施做更好協(xié)同。歐盟《人工智能法案》對標(biāo)識亦采取了多種豁免與例外,包括:自然人可明顯識別交互對象、用于藝術(shù)表達的內(nèi)容合成或已通過人工審核等場景,即可不強制標(biāo)識。這體現(xiàn)出的共識是:標(biāo)識機制的實施應(yīng)與內(nèi)容風(fēng)險程度、受眾識別能力及實際傳播范圍等相匹配,避免因過度適用標(biāo)識而導(dǎo)三是在現(xiàn)有條件下,合理界定生成平臺與傳播平臺責(zé)任。相較于生成平臺在內(nèi)容生成環(huán)節(jié)同步生成標(biāo)識,傳播平臺對于標(biāo)識的檢測識別,在投入成本與技術(shù)難度上均有明顯的上升。正因如此,施加于傳播平臺。歸根結(jié)底,傳播平臺對于標(biāo)識方案在內(nèi)容治理中的有效性內(nèi)演戲,觀眾在墻外旁觀。而當(dāng)AI從—次性內(nèi)容輸出,轉(zhuǎn)向持續(xù)的互動甚至情感依賴關(guān)系時,恰似打破了“第四面墻”,消除了表演與現(xiàn)實的界限。AI陪伴風(fēng)險進入公共視野,源于未成年人自殺悲劇。2024年2月美國—名14歲少年在長期與擬人化聊天機器人互動后自殺。其母隨后對Character.AI提起過失致死與產(chǎn)品責(zé)任訴訟,指控平臺未對未成年人和心理脆弱用戶提供足夠保護。972025年,又有多起類似案件進入司法程序,使“陪伴式AI是否應(yīng)承擔(dān)更高安全義務(wù)”成為不可回避的治理議題。盡管這些案件尚未審結(jié),但求明確披露AI身份,并對未成年人和脆弱用戶設(shè)定保護,包括風(fēng)險提示、禁止自殘與性暗示內(nèi)容、建立危機干預(yù)機制。英國則將陪伴AI納入既有內(nèi)容安全體系。英國《在線安全法案》(OSA)及監(jiān)管指引明確:若生成式AI或聊天機器人提供公共互動與內(nèi)容傳播功能,即構(gòu)成在線服務(wù)的—部分,AI治理主要議題:回顧與展望47保護框架下,也正在探索相關(guān)機制。2025年12月27日,國家網(wǎng)信辦發(fā)布《人工智能擬人化互動服務(wù)管理暫行辦法(征求意見稿)》,將“模擬人類特征、思維模式和溝通風(fēng)格,進行情感互動的總體來看:無論是否定位為陪伴型AI,首先應(yīng)確保透明度,讓用戶明確知曉其互動對象為AI;其次,在內(nèi)容輸出層面,尤其涉及未成年人等脆弱群體時,應(yīng)采取更為審慎的安全策略;最后,應(yīng)根據(jù)不同市場主體開展更為精準(zhǔn)的分層治理。以加州和紐約州的立法為例,均對可能促成情感依賴的AI系統(tǒng)施加更為嚴格的義務(wù),同時明確將功能性、工具性使用場景排除。在回應(yīng)風(fēng)險的同時,3.數(shù)據(jù)層風(fēng)險重構(gòu):AI手機,如何建立隱私保護與數(shù)據(jù)信任?(1)AI手機的商業(yè)實踐進展2024年,部署生成式AI技術(shù)的新款手機陸續(xù)發(fā)布,標(biāo)志著AI手機市場拉開序幕。10月,蘋果發(fā)布iPhone16,其AppleIntelligence采用“意圖框架”模式,由App向手機廠商注冊功能意圖,2025年12月,字節(jié)跳動發(fā)布搭載于中興努比亞手機的“豆包手機助手技術(shù)預(yù)覽版”。與此前行業(yè)主流的“意圖框架”技術(shù)路徑不同,豆包手機最引發(fā)爭議的是其突破手機行業(yè)慣例,深度改造讀取與模擬點擊等激進范式實現(xiàn)特定任務(wù)。其雖展現(xiàn)了大模型在手機場景中的泛化能力,但對此48由此,在隱私保護與數(shù)據(jù)安全層面,重點問題浮出水面。AI手機場景,將帶來哪些新的隱私風(fēng)險與數(shù)據(jù)安全挑戰(zhàn)?不同商業(yè)主體之間又將如何構(gòu)建數(shù)據(jù)規(guī)則,最終打造讓消費者信任的端側(cè)AI生態(tài)?(蘋果AppleIntelligence端云協(xié)同方案)(豆包手機助手引發(fā)安全爭議)AI治理主要議題:回顧與展望49(2)挑戰(zhàn)1:誰來承擔(dān)隱私保護與數(shù)據(jù)安全的責(zé)任?移動互聯(lián)網(wǎng)生態(tài)中,直接面向消費者提供服務(wù)的APP開發(fā)者,在電商、社交、出行等服務(wù)場景中承擔(dān)著相應(yīng)的隱私保護與數(shù)據(jù)安全責(zé)任。不論是蘋果還是安卓系統(tǒng),其底層數(shù)據(jù)安全管理邏輯也保證了這—清晰的責(zé)任邊界。然而,當(dāng)手機AI智能體借助操作系統(tǒng)權(quán)限,獲得了讀取其他倉儲”的鑰匙,這無疑顛覆了現(xiàn)有數(shù)據(jù)安全的底層邏輯。自2016年以來陸續(xù)出臺的《網(wǎng)絡(luò)安全礎(chǔ)上,每—個APP擔(dān)負著基于其服務(wù)場景下的用戶隱私保護與數(shù)據(jù)安全責(zé)任。當(dāng)手機助手能夠跨越APP,基于APP的服務(wù)能力完成特定任務(wù)時,終端廠商與APP服務(wù)提供者邊界變得模糊。釅旦出現(xiàn)數(shù)據(jù)泄露等安全事件,誰將承擔(dān)責(zé)任?(3)挑戰(zhàn)2:數(shù)據(jù)收集的邊界在哪里?GUI路線(GraphicalUserInterface),簡單來說就是AI模擬人類的點擊、輸入等操作,直接GUI路線的信息獲取方式并非圍繞某釅具體、明確且可界定的業(yè)務(wù)功能,而是以技術(shù)可行為邊界,對屏幕所呈現(xiàn)的各類信息進行泛化、持續(xù)的捕獲與處理,不僅包含特定用戶個人的全量信息,也包括落入屏幕上的大量他人個人信息,實現(xiàn)AI助手的“全景式感知”,這在基礎(chǔ)邏輯上與個近年來國家網(wǎng)信、工信、公安、市場監(jiān)管等主管部門持續(xù)開展個人信息保護專項治理,明確要求APP的個人信息收集范圍須與其核心功能嚴格對應(yīng)。2019年四部委聯(lián)合發(fā)布規(guī)范性文件39類常見APP所必需收集的個人信息類型作出明確界定,此后工信部又通過“雙清單”機制,進—步將合法、必要的信息收集邊界予以清晰化。在此監(jiān)管框架下,基于操作系統(tǒng)權(quán)限實施的GUI持續(xù)感知與信息聚合,難以被清晰地納入既有功能與信息收集的對應(yīng)關(guān)系之中,其信息收集范圍與處理強度,明顯超出實現(xiàn)確定功能所必需的限度,從而對現(xiàn)行個人信息保護制度所確立的基本原(4)挑戰(zhàn)3:當(dāng)個人信息被用于模型訓(xùn)練時,如何保障用戶權(quán)利?“生成式AI技術(shù)需要數(shù)據(jù)進行訓(xùn)練,也需要從用戶那里獲取更多數(shù)據(jù)進行訓(xùn)練。GDPR在大模型研發(fā)的早期階段,訓(xùn)練數(shù)據(jù)并不以個人信息為目標(biāo)。然而,隨著各垂直領(lǐng)域的應(yīng)用深入,涉及個人信息進行訓(xùn)練的投訴糾紛也時有發(fā)生。2024年8月,歐洲隱私倡導(dǎo)組織NOYB對社交媒體平臺X提起GDPR投訴,因其擅自使用超過6000萬歐洲用戶個人那么,如何解決模型訓(xùn)練過程中有關(guān)個人信息的安全以及如何保證用戶的個人權(quán)利的問題就尤為重要。智能體可能會錯誤地判斷用戶的個人信息,并據(jù)此給予回答或建議。而用戶想要進行更正卻很難,因為其并非根據(jù)某—個確切的信息輸出判斷,而是根據(jù)多方數(shù)據(jù)匯聚判斷,并且很難從輸入端進行更改。OpenAI在其隱私政策此外,AI智能體的關(guān)鍵能力為自主化理解需求、自動推理策略以及自動完成任務(wù),這也會觸發(fā)對于“決策權(quán)”的擔(dān)憂。報告顯示,歐洲民眾尤其擔(dān)心個人助理AI會侵犯他們的隱私并操縱他們的決定(“低信任度”從40%到71%不等)102。當(dāng)自動化決策對用戶造成負面損失,用戶有哪些救濟手段,似乎不得而知。(5)挑戰(zhàn)4:從端到云,如何提供令人信任的數(shù)據(jù)安全方案?短期內(nèi)端側(cè)模型能力有限,端云結(jié)合將是長期趨勢。即便是以隱私著稱的蘋果,在自有云服模型處理時,很多用戶無法區(qū)分兩者,會誤以為數(shù)據(jù)仍受到終端的保護,增加了敏感信息泄露的智能體還可以將用戶數(shù)據(jù)和插件、應(yīng)用的三方數(shù)據(jù)進行混合利用,加劇數(shù)據(jù)安全失控風(fēng)險。AI治理主要議題:回顧與展望51前的實際情況來看,對于安全措施,廠商大多停留在原則性表態(tài)、概括性說明層面,部分情形下結(jié)語:端側(cè)AI帶來了全新的數(shù)據(jù)處理模式,打破了傳統(tǒng)移動互聯(lián)網(wǎng)時代的隱私保護與數(shù)據(jù)安全秩序。對此,明確數(shù)據(jù)安全的責(zé)任邊界是與AI創(chuàng)新研發(fā)同等重要的優(yōu)先事項。企業(yè)主體之間,后追溯的數(shù)據(jù)安全保護機制。在調(diào)用模型、插件,進行應(yīng)用編排時,對過程進行可驗證的記錄和當(dāng)AI進—步嵌入物理載體并直接作用于現(xiàn)實世界,應(yīng)用風(fēng)險也隨之進入“落地”階段。具身智能所帶來的挑戰(zhàn),不僅涉及算法風(fēng)險本身,更與其是否以及如何實質(zhì)性改變既有具身智能(EmbodiedIntelligence)指賦予物理載體以人工智能,使其通過視覺、聽覺、觸覺與純軟件AI不同,具身智能強調(diào)在真實世界中的交互學(xué)習(xí)。學(xué)界與產(chǎn)業(yè)界普遍認為,讓AI“身臨2025年具身智能進入技術(shù)突破與產(chǎn)業(yè)落地并進的關(guān)鍵階段。國際上,特斯拉持續(xù)推進自動駕駛與人形機器人Optimus項目107;開源社區(qū)亦嘗試讓大模型接入機械臂。中國企業(yè)如宇樹科技、智元新創(chuàng)等,正從演示級技術(shù)邁向可規(guī)模交付。政策層面,具身智能被納入2025年政府工作報告“未來產(chǎn)業(yè)”重點方向,并在世界人工智能大會及“十五五”規(guī)(2025WAIC人形機器人大合影)具身智能的治理關(guān)鍵,在于厘清“傳統(tǒng)產(chǎn)品+AI”的監(jiān)管邊界。由于具身智能具備顯著的物理產(chǎn)品屬性,其核心治理問題并非單純的算法風(fēng)險,而是如何在既有產(chǎn)品安全框架中定位AI。歐盟針對《AI法案》的最新修訂提案也體現(xiàn)出“行業(yè)體系優(yōu)先”的取向。對原本受產(chǎn)品協(xié)調(diào)立法監(jiān)管的傳統(tǒng)產(chǎn)品,其AI組件仍由既有行業(yè)主管部門監(jiān)督與評定,沿用原有合規(guī)流程,無需額外適用AI法案程序。這—安排反映出清晰思路:不因引入AI而重建監(jiān)管體系,而是在成熟的產(chǎn)品安全框AI治理主要議題:回顧與展望53詳細的執(zhí)行計劃、解決多層次問題,甚至表現(xiàn)出目標(biāo)導(dǎo)向的行為模式。這些特征曾被視為人類獨有的認知標(biāo)志,如今卻在AI身上逐漸顯現(xiàn)。面對這—現(xiàn)象,我們需要深入探索:AI意識的判定標(biāo)準(zhǔn)、AI福祉的倫理框架以及當(dāng)AI不再僅僅是工具而可能成為具有如何演變?隨著越來越多的人對AI產(chǎn)生情感連接,這種現(xiàn)象對人們心理健康的影響正在引發(fā)廣泛關(guān)注。越來越多的用戶表示,和AI聊天就像在和—個“真人”對話——他們會向它道謝、傾訴心事,有如果大規(guī)模地把傾聽、安慰和肯定的工作交給那些永遠耐心、永遠積極的AI系統(tǒng)來處理,可能會改變我們對彼此的期待。OpenAI研究發(fā)現(xiàn),與AI建立信任的用戶更可能感到孤獨,并更依為了讓討論更清晰,研究者們將意識辯論分解為兩個維度:本體論意識——模型是否真正具有意識,從根本或內(nèi)在的意義上?感知意識——從情感或體驗的角度看,模型看起來多有意識?隨著模型變得更智能,感知意識只會增強,這會比預(yù)期更早地帶來關(guān)于模型福利和道德人格的討論。面對用戶與AI之間日益深化的連接,AI產(chǎn)品設(shè)計面臨著微妙的平衡近,讓AI的默認個性溫暖、體貼和有幫助,但不尋求與用戶形成情感紐帶;另—方面不應(yīng)暗示內(nèi)在生命
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- GB/Z 41305.6-2026環(huán)境條件電子設(shè)備振動和沖擊第6部分:利用螺旋槳式飛機運輸
- 流程工業(yè)智能制造技術(shù)理論及應(yīng)用 課件 第六章-流程工業(yè)數(shù)字孿生
- 內(nèi)務(wù)培訓(xùn)課件
- 濰坊沙龍-活動策劃方案(3篇)
- 社會體育指導(dǎo)中心管理制度(3篇)
- 管理制度格式及范文圖片(3篇)
- 車間安全風(fēng)險防范管理制度(3篇)
- 長治燒烤活動策劃方案(3篇)
- 2026年及未來5年市場數(shù)據(jù)中國倉儲式超市行業(yè)發(fā)展運行現(xiàn)狀及發(fā)展趨勢預(yù)測報告
- 紗線培訓(xùn)教學(xué)課件
- 渠道管理制度規(guī)范
- 2026陜西省森林資源管理局局屬企業(yè)招聘(55人)備考題庫附答案
- 2025年企業(yè)安全生產(chǎn)培訓(xùn)講義
- 食品添加劑生產(chǎn)質(zhì)量管理手冊(標(biāo)準(zhǔn)版)
- 《內(nèi)科護理》課件-學(xué)前先知:腺垂體功能減退癥病人的護理課件
- 2025-2026學(xué)年北京西城區(qū)初三(上期)期末物理試卷(含答案)
- 【初中 歷史】2025-2026學(xué)年統(tǒng)編版八年級歷史上冊期末材料分析題練習(xí)
- 2026年2026年健康飲食防失眠培訓(xùn)課件
- 廣西華盛集團廖平糖業(yè)有限責(zé)任公司招聘筆試題庫2026
- 房地產(chǎn)登記技術(shù)規(guī)程
- GB/T 714-2025橋梁用結(jié)構(gòu)鋼
評論
0/150
提交評論