人工智能隱私保護白皮書_第1頁
人工智能隱私保護白皮書_第2頁
人工智能隱私保護白皮書_第3頁
人工智能隱私保護白皮書_第4頁
人工智能隱私保護白皮書_第5頁
已閱讀5頁,還剩52頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

《人工智能隱私保護白皮書》《人工智能隱私保護白皮書》-1-中國聯(lián)通人工智能隱私保護白皮書中國聯(lián)通研究院中國聯(lián)通網(wǎng)絡安全研究院11版權(quán)聲明將追究其相關(guān)法律責任。目錄前言 1一人智能生命期隱風險析 3人智能用隱風險 4數(shù)采集儲流通階隱風險 4模訓練推理階隱風險 6生式人智能隱風險 9二人智能私保法規(guī)策和準化狀 10人智能私保國內(nèi)法律規(guī)和策 10國情況 10國情況 13人智能私保國內(nèi)相關(guān)標化情況 19國相關(guān)準研情況 19國相關(guān)準研情況 21三人智能私保技術(shù)平臺 22人智能私保技術(shù) 23人智能私保管控術(shù) 23人智能私保數(shù)據(jù)密技術(shù) 23人智能私保攻擊御技術(shù) 25人智能私保新興術(shù) 26人智能私保平臺 30四人智能私保建議 31建健全人工能隱保護規(guī)監(jiān)機制 31加可操的人智能私保標準設(shè) 32構(gòu)全周的人智能私保體系 33發(fā)多維的人智能私保技術(shù) 35培復合的人智能私保人才 36構(gòu)負責的人智能私保生態(tài) 37參文獻 37前言(ArtificialIntelligence,簡稱AI)潛在的濫用對以前被認為是不可侵犯的個人敏感信息構(gòu)成了前所未本白皮書從人工智能隱私保護的內(nèi)涵出發(fā),從人工智能全生命周-1-(、():一人工智能全生命周期隱私風險分析給社會帶來機會的同時也同樣不能忽略它的弊端和隨之帶來的一系可以看到人工智能的普及與濫用使其面臨越來越多的隱私與安(GenerativeArtificialIntelligence了新的AI人工智能通用隱私風險數(shù)據(jù)采集存儲流通階段隱私風險汽車的傳感器需要采集街景數(shù)據(jù)來支持智能駕駛系統(tǒng)的決策從而控人信息保護造成不可控的隱私風險。模型訓練與推理階段隱私風險模型訓練階段數(shù)據(jù)污染風險的數(shù)據(jù)+20的模型=更好的機器學習”,而數(shù)據(jù)污染和錯誤將降低模AI因其Alexa大問題。模型推理應用階段隱私風險集中的人臉恢復出來。出,使模型忽略原始指令并執(zhí)行注入的指令,從而偏離其原始行為,NewBing生成式人工智能隱私風險(GenerativeArtificialIntelligence,AI)技術(shù)的發(fā)展,AI能力,并從計算智能、感知智能進一步邁向認知智能。但同時,AI可分為生成式人工智能內(nèi)生隱私風險和生成式人工智能濫用導致的衍生風險。AIChatGPT式AIprompt成式AIAI生成式人工智能濫用導致的衍生風險主要是指在缺乏約束和監(jiān)管的情況下,生成式AIChatGPT二人工智能隱私保護法規(guī)政策和標準化現(xiàn)狀人工智能隱私保護國內(nèi)外法律法規(guī)和政策國內(nèi)情況《個人信息保護法》確立了以“告知-同意”為核心的個人信息2021112017202112對各類算法技術(shù)的適用場景和企業(yè)使用算法時需恪守的強制性義務2022122023713構(gòu)和人員對在履行職責中知悉的個人隱私和個人信息應當依法予以20219征求(202220235(2023-202520253000101202296國外情況歐盟和英國關(guān)于監(jiān)管人工智能的建議在范圍和方法上有明顯差GDPR(通用數(shù)據(jù)保護條例)。該條例被稱20182021922。對我們的國家雄心至關(guān)重要……”,同時,英國人工智能辦公室(OfficeforArtificialIntelligence)(2022720。同時英國中央數(shù)字辦公室等機構(gòu)在202111421(Unacceptablerisk)(Highrisk)(Limitedrisk)(Minimalrisk)20194信賴人工智能的倫理準則》,提出了實現(xiàn)可信賴人工智能(TrustworthyAl)全生命周期的框架。該準則提出,可信賴AI3202262023614201610出實施“人工智能公開數(shù)據(jù)”計劃。20192數(shù)據(jù)、算法和計算機處理資源對人工智能研發(fā)人員和企業(yè)的開放。201962020120192019(NationalSecurityCommissiononArtificialIntelligence)(JAIC),作為開發(fā)和執(zhí)行總體人工智能戰(zhàn)略的責任機構(gòu)。202112020等職責。20205案要求美國商務部和聯(lián)邦貿(mào)易委員會明確人工智能在美國應用的優(yōu)63(theAmericanDataPrivacyandProtectionActADPPA)20235發(fā)布OSTP2023102022422112022》,作為指導其未來人工智能技術(shù)發(fā)2023421AI與人工智能相關(guān)的國家戰(zhàn)略。對于正在迅速普及的聊天機器人ChatGPT202012020ITAI2030需要對相關(guān)法律法規(guī)進行修改。2020年12月24日,韓國科學和信息通信技術(shù)部和國家事務協(xié)調(diào)辦公室共同發(fā)布了人工智能立法路線1130信任基礎(chǔ)。20201222人工智能隱私保護國內(nèi)外相關(guān)標準化情況國內(nèi)相關(guān)標準研究情況我國人工智能領(lǐng)域標準建設(shè)由國家牽頭統(tǒng)一布局,2020年7月,術(shù)委員會(TC260)20237(20230249-T-469)以及處于批準階段的《信息安全技術(shù)機器學習算學在IEEEAI《算力網(wǎng)絡計算節(jié)點安全能力要求》等。國外相關(guān)標準研究情況201710ISO/IECJTC1工智能的分委員會SC42,負責人工智能標準化工作。SC425GWW、WW。其中,SC42WG3IEEEIEEE《數(shù))。201951(NIST)發(fā)布人202222023126險管理框架》,該框架將可信度考量納入設(shè)計、開發(fā)、使用和評估AIAI例如歐洲的GDPR為了解決這些差異,國際標準化組織(ISO)和國內(nèi)標準化工作組間已經(jīng)開始展開交流與合作,以推動國際標準與國內(nèi)標準的對齊。通過積極開展國際合作與對話,可以加強國內(nèi)外標準的互認和對齊,形成更加全面和統(tǒng)一的人工智能隱私保護體系標準。三人工智能隱私保護技術(shù)和平臺實踐中,針對人工智能隱私保護和數(shù)據(jù)安全問題,科技公司/金人工智能隱私保護技術(shù)人工智能隱私保護管控技術(shù)權(quán)限管理是根據(jù)預設(shè)的規(guī)則或者策略限制用戶訪問被授權(quán)的資人工智能隱私保護數(shù)據(jù)加密技術(shù)(DifferentialPrivacy)術(shù)通過添加噪聲使敏感數(shù)據(jù)失真但同時保持某些數(shù)據(jù)或數(shù)據(jù)屬性不Laplace(HomomorphicEncryption)BGN多方安全計算(SecureMulti-PartyComputation,MPC)是圖1982上進行計算。通過使用MPCAI人工智能隱私保護攻擊防御技術(shù)針對人工智能模型訓練和推理階段面臨的數(shù)據(jù)與模型隱私安全modelstacking直接對抗訓練是將對抗樣本及正確標簽重新輸入到模型中進行重訓的ChatGPT、微軟的NewBing人工智能隱私保護新興技術(shù)近年來,研究者提出了一些新興的隱私保護技術(shù),如聯(lián)邦學習技(FederatedLearning)由Google2016FedAvgFATE現(xiàn)流動和協(xié)同計算。P2P(TrustedExecutionEnvironment,TEE)TEETEETEETEE(Machine員推理攻擊和模型逆向攻擊可以揭示關(guān)于訓練數(shù)據(jù)集特定內(nèi)容的信(DigitalWatermarking)人工智能隱私保護平臺私保護平臺可主要分為隱私保護機器學習平臺和人工智能安全檢測平臺。人工智能安全檢測與評估平臺還處于起步階段,目前相關(guān)平臺主四人工智能隱私保護建議建立健全的人工智能隱私保護合規(guī)監(jiān)管機制建立健全法律法規(guī)與監(jiān)督機制。安全與發(fā)展是一體之兩翼,驅(qū)動加強可操作的人工智能隱私保護標準建設(shè)構(gòu)建全周期的人工智能隱私保護體系數(shù)據(jù)存儲階段的隱私保護。建立數(shù)據(jù)接口規(guī)范,對數(shù)據(jù)在處理、保存環(huán)節(jié)中涉及到的數(shù)據(jù)對接等操作進行管理,避免數(shù)據(jù)在處理、保存過程中形成隱私泄露風險。在存儲隱私相關(guān)的數(shù)據(jù)時,明確數(shù)據(jù)的使用范圍,進行分級分類存儲,并采用數(shù)據(jù)加密技術(shù)進行安全存儲。的ChatGPT的BingChatBARD模型推理應用中的安全測評。建議從兩個維度對人工智能平臺和發(fā)展多維度的人工智能隱私保護技術(shù)加強技術(shù)創(chuàng)新和應用,技術(shù)是保護數(shù)據(jù)隱私和安全的重要手段,它可以提高數(shù)據(jù)的可靠性、可信度和可控性。目前,已經(jīng)有一些技術(shù)培養(yǎng)復合型的人工智能隱私保護人才ChatGPT的生成式AIAIAI也昭示著AIAIAI構(gòu)建負責任的人工智能隱私保護生態(tài)人工智能隱私保護與安全需要產(chǎn)學研用各方推動負責任的人工參考文獻陳宇飛,沈超,王騫,等.人工智能系統(tǒng)安全與隱私風險[J].計算機研究與發(fā)展,2019,56(10):16.楊子祺,吳正陽,任奎.一種基于模型水印的機器學習模型版權(quán)保護方法浙江省:CN116244669A,2023-06-09.Xu,H.,Zhu,T.,Zhang,L.,Zhou,W.,&Yu,P.MachineUnlearning:Survey.ACMComputingSurveys.2023.AI.2023.[5]大數(shù)據(jù)協(xié)同安全技術(shù)國家工程研究中心.大語言模型提示注入攻擊安全風險分析報告.2023.[6]袁勇,王飛躍.區(qū)塊鏈技術(shù)發(fā)展現(xiàn)狀與展望[J].2016,42(4):14.[7]王群,李馥娟,王振力,等.區(qū)塊鏈原理及關(guān)鍵技術(shù)[J].計算機科學與探索,2020,14(10):23.李宗維,孔德潮,牛媛爭等.基于人工智能和區(qū)塊鏈融合的隱私保護技術(shù)研究綜述[J].信息安全研究,2023,9(06):557-565.張夏明,張艷.人工智能應用中數(shù)據(jù)隱私保護策略研究[J].電子科學技術(shù),2020,000(004):76-84.TheGSMAssociation.ArtificialIntelligenceSecurityGuidelinesVersion1.0.2022.俞巍,李志強,李青青,龔奇源.AIGC大模型為什么需要可信執(zhí)行環(huán)境(TEE)?./s/BnoFbMdqe5cBi8Reh0oeVw.2023.李楊,溫雯,謝光強.差分隱私保護研究綜述[J].計算機應用研究,2012,29(9):6.[J].計算機學報,2014,37(1):22.胡奧婷,胡愛群,胡韻,等.機器學習中差分隱私的數(shù)據(jù)共享及發(fā)布:技術(shù),應用和挑戰(zhàn)[J].信息安全學報,2022,7(4):16.錢萍,吳蒙.同態(tài)加密隱私保護數(shù)據(jù)挖掘方法綜述[J].計算機應用研究,2011,28(5):5.崔建京,龍軍,閔爾學,等.同態(tài)加密在加密機器學習中的應用研究綜述[J].計算機科學,2018,45(4):7.譚作文,張連福.機器學習隱私保護研究綜述[J].軟件學報,31(7):30.李浪,余孝忠,楊婭瓊,等.同態(tài)加密研究進展綜述[J].計算機應用研究,2015,32(11):6.相./2019-05/10/c_1124475056.htm.2019.國家知識產(chǎn)權(quán)局.二〇二二年中國知識產(chǎn)權(quán)保護狀況[21]中國信息通信研究院.聯(lián)邦學習常見應用研究報告.2022.[22]中國移動研究院.聯(lián)邦學習技術(shù)發(fā)展與應用白皮書.2021.李鑒,邵云峰,盧燚,吳駿.聯(lián)邦學習及其在電信行業(yè)的應用.信息通信技術(shù)與政策.2020.中國信息通信研究院.可信人工智能產(chǎn)業(yè)生態(tài)發(fā)展報告.2022.促進條例》正式公布./s?id=1743295101400323317&wfr=spider&for=pc.2022.第十三屆全國人民代表大會三次會議.中華人民共和國民法典.2020李秋娟.ChatGPT[28]36GDPRtps:///s?id=1601327537454164540&wfr=spider&for=pc.2018.三法聯(lián)動開啟企業(yè)新一輪數(shù)據(jù)合規(guī)浪潮./CN/news_content.aspx?Lan=CN&MenuID=00000000000000000006&KeyID=00000000000000002065&Type=00000000000000000081.2021.申拓律師事務所.人工智能技術(shù)在法律上的應用和監(jiān)管_相關(guān)_保護_處理tps:///a/674282479_121441272.2023.力的人工智能創(chuàng)新策源地實施方案(2023-2025)》的通知.2023.公布.2022.王鵬.保護與開放:加速推進和規(guī)范人工智能立法.https://baijiahao.bai/s?id=1768838850725404353&wfr=spider&for=pc.2023.PaulVoigt,DanielTolks./s?biz=MzI5MDQzOTkyMQ==&mid=2247486285&idx=1&sn=9

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論