2025動態(tài)監(jiān)管下負責任的人工智能_第1頁
2025動態(tài)監(jiān)管下負責任的人工智能_第2頁
2025動態(tài)監(jiān)管下負責任的人工智能_第3頁
2025動態(tài)監(jiān)管下負責任的人工智能_第4頁
2025動態(tài)監(jiān)管下負責任的人工智能_第5頁
已閱讀5頁,還剩63頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

安全聲 前瞻性聲明和人工智能的發(fā)展前 文檔摘 執(zhí)行摘 引 范圍和適用 生成式人工智能法律和監(jiān)管的重點領(lǐng) 數(shù)據(jù)隱私和安 通用數(shù)據(jù)保護條例(GDPR)(歐盟 《加州消費者隱私法案》/《加州隱私權(quán)法案》 歐盟人工智能法案(EUAI 《醫(yī)療電子交換法案(HIPAA) 如何應(yīng)對生成式人工智能的幻覺對數(shù)據(jù)隱私、安全和倫理的影 國土安全部政策聲明139-07對生成式人工智能的影 聯(lián)邦貿(mào)易委員會政策宣傳與研究指導 美國白宮管理和預(yù)算辦公室(OMB)創(chuàng)新和風險管理的政 拜登總統(tǒng)關(guān)于安全、可靠和負責任地開發(fā)和使用人工智能的行政令非歧視與公 部分現(xiàn)行反歧視法律法 監(jiān)管方面的挑 監(jiān)管重點和技 新興監(jiān)管框架、標準和指 安全、責任和問 知識產(chǎn) 負責任人工智能的技術(shù)戰(zhàn)略、標準和最佳實 公平與透明 安全與隱 魯棒性、可控性和合乎倫理的人工智能實 組織如何利用這些標 負責任的生成式人工智能的技術(shù)保障(數(shù)據(jù)管理 案例研究--在實踐中展示透明度和問責 持續(xù)監(jiān)測與合 管理生成式人工智能的法律與倫理考 結(jié)論:填補人工智能治理空白,實現(xiàn)負責任的未 本研究文件由云安全聯(lián)盟編寫,探討了當前圍繞人工智能的監(jiān)管治理情況。雖然本文涉及各種法律和監(jiān)管框架,但必須強調(diào)的是,所提供的信息不適用于任何特定情況的法律指導。人工智能的監(jiān)管環(huán)境正在迅速演變,法律法規(guī)的解釋和應(yīng)用會因各種因素而存在很大差異,這些因素包括:管轄范圍(國家或地區(qū)具體的情景(如行業(yè)、應(yīng)用場景等因此,云安全聯(lián)盟和本文作者強烈建議,如果有任何與人工智能開發(fā)、部署或使用相關(guān)的法律層面的問題或疑慮,應(yīng)單獨尋求法律顧問的意見。本文包含了一些可能具有前瞻性的陳述。為確定其適用性,我們鼓勵向相關(guān)的國家監(jiān)管機構(gòu)和法律顧問尋求指導。需要注意的是,這些陳述是作者和云安全聯(lián)盟基于當前的知識和預(yù)期所做,受固有風險、不確定性和假設(shè)的影響,部分陳述可能與實際結(jié)果存在差異。以下是可能影響人工智能領(lǐng)域未來發(fā)展和相關(guān)監(jiān)管環(huán)境的一些重要因素,也是可能影響本文件中前瞻性陳述準確性的因素所在:技術(shù)的快速進步:人工智能領(lǐng)域不斷發(fā)展,新的技術(shù)和應(yīng)用層出不窮,很難預(yù)測這些技術(shù)進步的確切軌跡及其對人工智能監(jiān)管各方面的影響。監(jiān)管框架的不確定性:對人工智能的監(jiān)管方法仍在開發(fā),不同管轄范圍內(nèi)對人工智能開發(fā)、部署和使用的具體規(guī)定可能存在較大差異,并可能隨著時間的推移而發(fā)生變化。新興的倫理考量:隨著人工智能應(yīng)用變得越來越復雜,可能會出現(xiàn)新的倫理考量,促使更多有關(guān)負責任的開發(fā)和使用這些技術(shù)的法規(guī)或指導原則出臺。經(jīng)濟和社會因素:整體經(jīng)濟環(huán)境和對人工智能的社會態(tài)度,可能會影響新技術(shù)的開發(fā)、采用及監(jiān)管環(huán)境。這些關(guān)于前瞻性的陳述僅反映作者和云安全聯(lián)盟本文件發(fā)布之日的觀點,作者和云安全聯(lián)盟不承擔更新或修改本文檔中任何前瞻性陳述以反映未來事件或情況的任何責任。請讀者不要過度依賴這些陳述。本文圍繞人工智能和生成式人工智能(GenAI)的法律和監(jiān)管環(huán)境論述。主要強調(diào)了生成式人工智能在復雜多變的環(huán)境中面臨的挑戰(zhàn),這些挑戰(zhàn)源于生成式人工智能自身的多樣化應(yīng)用、全球監(jiān)管機構(gòu)采取的不同監(jiān)管方法,以及對現(xiàn)有規(guī)定的延遲適應(yīng)。本文旨在為各組織提供基本知識,幫助其從根本上了解自身的現(xiàn)狀,并為他們在快速變化的負責任、合規(guī)地使用人工智能方面的需求提供指導。本文探討了部分現(xiàn)行法規(guī),并闡述了在地區(qū)、國家和國際層面開發(fā)和部署負責任的人工智能的注意事項和最佳實踐。本文高度概括了當前人工智能(包括生成式人工智能(GenAI))的法律和監(jiān)管情況。雖然內(nèi)容并非詳盡無遺,但對于組織來說,這是一個了解自身現(xiàn)狀并確定負責任和合規(guī)的使用生成式人工智能應(yīng)該考慮哪些關(guān)鍵因素的起點。由于技術(shù)的不斷進步以及法律和政策環(huán)境的演變,提供一份完整的概述是具有挑戰(zhàn)性的。因此,我們建議將這些信息作為了解不斷演變的人工智能法規(guī)和監(jiān)管機構(gòu)的基礎(chǔ)。重要的是要意識到,人工智能法規(guī)來自全球各級政府和司法管轄區(qū)。此外,盡管數(shù)據(jù)隱私和反歧視法規(guī)等法律不是專門為人工智能設(shè)計,但這些法律將決定人工智能的使用范圍和方式。例如,在美國,人工智能將受到城市、州和聯(lián)邦法律、政府行為、行政令、自愿行業(yè)協(xié)議甚至普通法的監(jiān)管。在準備人工智能項目時,需要考慮到人工智能法規(guī)的起源并不總是直觀的,因此需要細致分析。首個具有深遠影響的法律框架是歐盟《人工智能法案》,因為它保障了個人和企業(yè)的安全及基本權(quán)利。如果某些人工智能應(yīng)用干擾或威脅到公民權(quán)利,則會遭到禁止。如大語言模型等高風險人工智能系統(tǒng)可能會對健康、安全、基本權(quán)利、環(huán)境、民主和法治造成重大損害,預(yù)計將出臺相關(guān)法規(guī)加以監(jiān)管。人工智能正在迅速改變我們的世界,并且具有重塑社會基本結(jié)構(gòu)的巨大潛力。然而,這種變革力量也帶來一個嚴峻的挑戰(zhàn):當前的法律和監(jiān)管環(huán)境很難跟上人工智能,尤其是生成式人工智能爆炸性增長的步伐。本文旨在提供現(xiàn)有法律法規(guī)及其對人工智能開發(fā)、部署和使用影響的高層次概覽。我們的目標是確定立法滯后的領(lǐng)域,并尋求實際的方法部署負責任的人工智能。當前的環(huán)境缺乏完善的立法,在解決日益復雜的人工智能功能的潛在風險方面存在差距。GDPRCCPA)》/《加州隱私權(quán)法案(CPRA)》,雖然為數(shù)據(jù)隱私提供了基礎(chǔ)保障,但并未針對人工智能開發(fā)的獨特挑戰(zhàn)提供具體的指導,而且不足以滿足例外情況下的需求。隨著大型科技巨頭計劃向人工智能投資數(shù)千億,預(yù)計技術(shù)創(chuàng)新的步伐不會放緩,技術(shù)革新的快速步伐已經(jīng)超出了立法適應(yīng)的能力。一個令人擔憂的缺口正在出現(xiàn):生成式人工智能的廣泛使用,無論是個人還是專業(yè)用途,都伴隨著治理缺失的問題。惡意行為者已經(jīng)開始利用生成式人工智能執(zhí)行復雜的攻擊,公司也將生成式人工智能視為一種競爭優(yōu)勢,從而進一步加快了生成式人工智能的應(yīng)用。盡管這種快速應(yīng)用令人興奮,但需要伴隨著負責任的人工智能開發(fā)實踐,而這些實踐不能抑制創(chuàng)新。理想的解決方案是營造一個鼓勵負責任的、透明和可解釋的人工智能使用的全球環(huán)境,并輔以清晰實用的指導原則做支持。為了彌合人工智能的無限潛力與負責任開發(fā)需求之間的差距,我們需要一種三管齊下的合作方法:所有科技公司對負責任的人工智能做出承諾,政策制定者提供明確的指導,立法機構(gòu)制定有效的法規(guī)。本文以立法和法規(guī)為重點,開啟了關(guān)于人工智能治理的重要論述。它為涉足人工智能領(lǐng)域的從業(yè)者和企業(yè)提供了對當前人工智能治理環(huán)境及其不足之處的基礎(chǔ)理解。旨在通過強調(diào)這些不足,促進一場關(guān)于負責任人工智能開發(fā)和應(yīng)用所需法律框架的公開討論。人工智能領(lǐng)域的迅速擴展,需要法律和監(jiān)管環(huán)境的不斷演變,以確保在保護個人和社會的同時,負責任地發(fā)展、部署和創(chuàng)新。了解人工智能的道德和法律框架有助于組織實現(xiàn)三個關(guān)鍵目標:建立信任和品牌聲譽:通過展示透明、負責任的人工智能實踐,與利益相關(guān)者建立信任,并提升品牌聲譽。降低風險:積極采用這些框架并利用基于風險的方法,有助于降低與不負責任的人工智能使用相關(guān)的潛在的法律、聲譽和財務(wù)風險,從而保護組織和個人。促進負責任的創(chuàng)新:通過堅持最佳實踐、保持透明度、問責制和建立強大的治理結(jié)構(gòu),組織可以培育一種負責任的和安全的人工智能創(chuàng)新文化,確保人工智能在發(fā)展的同時對社會產(chǎn)生積極影響。通過多樣化的團隊、全面的文檔記錄和人類監(jiān)督,負責任的人工智能將通過減輕偏見、及早發(fā)現(xiàn)問題以及與現(xiàn)實世界保持一致,增強模型表現(xiàn)。由于人工智能,更具體地說是生成式人工智能(GenAI)本身具有多樣性,如何應(yīng)對復雜的法律環(huán)境就成為了一個巨大的挑戰(zhàn)。本文深入探討了圍繞人工智能的監(jiān)管環(huán)境,涵蓋了諸如生成逼真文本格式(代碼、腳本、文章)的深度學習模型、處理視覺內(nèi)容(面部識別、深度偽造)的計算機視覺應(yīng)用、穩(wěn)定擴散(文本到圖像模型)以及在自主系統(tǒng)(自動駕駛汽車、機器人)中使用的強化學習算法等多樣化系統(tǒng)。更廣泛的類別,如生成式對抗網(wǎng)絡(luò)和大語言模型等,是眾多生成式人工智能應(yīng)用的基礎(chǔ),要求在監(jiān)管中將其納入考慮。由于現(xiàn)行立法在適應(yīng)這一動態(tài)環(huán)境方面面臨挑戰(zhàn),因此有必要采取細致入微的方法管理這一廣泛、快速發(fā)展的系統(tǒng)。由于競爭壓力,快速發(fā)展的技術(shù)滲透到我們的生活和商業(yè)實踐中,但與此同時,法律框架卻不完善且適應(yīng)緩慢,造成了一種嚴峻的局面。本文將探討:最廣泛使用的現(xiàn)有法規(guī)如何參與解決生成式人工智能的特定領(lǐng)域問題。制定新法規(guī)面臨的一些挑戰(zhàn)和機遇。使用可解釋的人工智能技術(shù)制定負責任的人工智能原則的高級建議和最佳實踐。本文采用階段性的方法分析人工智能治理,重點關(guān)注以下幾個方面。表1:治理領(lǐng)域范圍現(xiàn)行文件國家最高級別的政府機構(gòu)或聯(lián)邦政府的立法:行政令(例如,維持美國在人工智能領(lǐng)域的領(lǐng)導地位,以及關(guān)于安全、可靠和值得信賴的開發(fā)與部署人工智能技術(shù)的行政令)國會法案(例如,2023年算法責任法案(提案國家層面:亞太地區(qū)的一些規(guī)定:中國(已頒布)(科學技術(shù)部)、日本(內(nèi)閣府)、韓國(科學技術(shù)信息通信部)、印度的國家政策是“全民人工智能”其他正在制定人工智能政策的國家(加拿大、英國、澳大利亞)加州消費者隱私法案(CCPA)》,由《加州《通用數(shù)據(jù)保護條例(GDPR)國際組織:正在探索框架的有:經(jīng)濟合作與發(fā)展組織(關(guān)于人工智能的建議)聯(lián)合國教科文組織(關(guān)于人工智能倫理的建議)。全球人工智能合作伙伴關(guān)系(GPAI)集來自科學界、產(chǎn)業(yè)界、民間社會、政府、國際組織和學術(shù)界的專長,以促進國際合作ISO/IEC42001:2023(人工智能管理系統(tǒng)標準)OWASP大語言模型應(yīng)用的10大安全風險生成式人工智能在數(shù)據(jù)隱私和安全領(lǐng)域存在獨特的挑戰(zhàn),能夠從大量數(shù)據(jù)中學習,從而引發(fā)了人們對在整個人工智能開發(fā)和部署生命周期中如何收集GDPR)》、《加州消費者隱私法案(CCPA)》、《加州隱私權(quán)法案(CPRA)》和《醫(yī)療電子交換法案(HIPAA)》在內(nèi)的多項現(xiàn)行法律法規(guī),旨在保護個人隱私和數(shù)據(jù)安全,具體如下:適用范圍:《通用數(shù)據(jù)保護條例》適用于在歐洲經(jīng)濟區(qū)(EEA)內(nèi)處理個人數(shù)據(jù)的任何組織。主要條款:處理的合法依據(jù)、公平性和透明度:組織處理個人數(shù)據(jù)必須有合法依據(jù)(如用戶同意、正當利益等)。它要求向個人明確提供關(guān)于數(shù)據(jù)收集和處理目的的具體的信息。數(shù)據(jù)最小化:將個人數(shù)據(jù)的收集和保留限制在所述目的所規(guī)定的范圍內(nèi)。數(shù)據(jù)主體的權(quán)利:授予個人對其個人數(shù)據(jù)的各種權(quán)利,包括訪問、更正、刪除和限制處理的權(quán)利。安全措施:要求組織采取適當?shù)募夹g(shù)和措施來保護個人數(shù)據(jù)免遭未經(jīng)授權(quán)的訪問、披露、更改或破壞。自動化個體決策制定,包括畫像:對于包括畫像的自動化決策制定,必須征得數(shù)據(jù)主體的明確同意(《通用數(shù)據(jù)保護條例》第22條)。生成式人工智能的《通用數(shù)據(jù)保護條例》合規(guī)性:歐盟《通用數(shù)據(jù)保護條例》要求在處理個人數(shù)據(jù)(包括用于人工智能系統(tǒng)的數(shù)據(jù))時必須征得數(shù)據(jù)主體同意。此外,數(shù)據(jù)保護的要求意味著系統(tǒng)必須遵守《通用數(shù)據(jù)保護條例》原則,如合法性、公平性、透明度、目的限制、數(shù)據(jù)最小化、準確性、存儲限制、完整性和保密性。對訓練數(shù)據(jù)和提示詞數(shù)據(jù)的限制:《通用數(shù)據(jù)保護條例》概述了以下處理數(shù)據(jù)的主要原則:目的限制:數(shù)據(jù)的收集和使用只能用于特定、明確界定或兼容的目的。

必要性:只能收集和使用實現(xiàn)這些目的所必需的個人數(shù)據(jù)。數(shù)據(jù)最小化:應(yīng)盡量減少收集和使用的個人數(shù)據(jù)量,只收集絕對必要的數(shù)據(jù)。存儲時限:必須盡可能縮短個人數(shù)據(jù)的存儲時間,并且必須定期設(shè)定和審查存儲期限。訓練數(shù)據(jù)(以及提示詞數(shù)據(jù),它們也可能成為“訓練數(shù)據(jù)”),即只在實際需要的范圍內(nèi)收集和使用數(shù)據(jù),以達到特定的訓練目標。知情同意:《通用數(shù)據(jù)保護條例》要求在收集和處理用于訓練生成式人工智能模型的個人數(shù)據(jù)時獲得用戶的明確同意。這可以確保個人了解其數(shù)據(jù)將如何被使用(例如,用于模型訓練或微調(diào)),并有權(quán)拒絕。人工智能開發(fā)者必須為那些數(shù)據(jù)被人工智能/機器學習系統(tǒng)處理的個人提供行使這些權(quán)利的便利。透明度:歐盟的個人對其個人數(shù)據(jù)享有訪問、更正、刪除、限制處理和數(shù)據(jù)可攜性的權(quán)利。組織在人工智能/機器學習系統(tǒng)中使用個人數(shù)據(jù)時必須保證其目的、法律依據(jù)和數(shù)據(jù)保留期限的透明,讓用戶了解他們的數(shù)據(jù)是如何貢獻到生成的輸出結(jié)果中的。數(shù)據(jù)安全:《通用數(shù)據(jù)保護條例》第25條規(guī)定,組織必須采取“隱私融入設(shè)計原則”和“默認隱私保護”的方法,并實施適當?shù)募夹g(shù)和組織措施,以確?;A(chǔ)模型中使用的個人數(shù)據(jù)的安全,包括加密、訪問控制和數(shù)據(jù)泄露通知程序。此外,由于大語言模型是整個供應(yīng)鏈的一部分,保證其安全性需要特別關(guān)注對抗性攻擊、數(shù)據(jù)中毒和模型偏差等惡意技術(shù)。責任:組織對在啟用生成式人工智能的系統(tǒng)中使用個人數(shù)據(jù)負有責任,并必須證明其符合《通用數(shù)據(jù)保護條例》,這包括執(zhí)行數(shù)據(jù)保護影響評估和維護適當?shù)挠涗洝?shù)據(jù)匿名化和假名化:雖然匿名化和假名化有助于降低隱私風險,但在生成式人工智能的背景下,它們并不能每一次都完美應(yīng)對,因為即使是有限的信息也可用于推理身份。生成式人工智能輸出的潛在危害:雖然《通用數(shù)據(jù)保護條例》看起來似乎只影響用于訓練模型的數(shù)據(jù),但實際上該法規(guī)也適用于模型輸出。這包括處理意外生成的輸出和惡意使用深度偽造技術(shù),這些都可能損害個人聲譽和違反道德原則。所以制定明確的指導方針和保障措施對于確保負責任地開發(fā)和使用生成式人工智能、降低風險和保護個人免受潛在傷害至關(guān)重要。訪問和更正權(quán):個人有權(quán)了解和訪問生成式人工智能使用的其個人數(shù)據(jù),并在數(shù)據(jù)不準確或不完整時要求更正。這包括個人直接提供的信息和通過與生成式人工智能互動交互而生成的數(shù)據(jù)。然而,與傳統(tǒng)數(shù)據(jù)庫不同的是,糾正人工智能訓練數(shù)據(jù)具有挑戰(zhàn)性,因為其數(shù)據(jù)規(guī)模龐大且相互關(guān)聯(lián),這可能需要重新訓練整個模型,并可能導致意想不到的后果。迄今為止,糾正人工智能模型訓練數(shù)據(jù)中已經(jīng)獲取的不準確信息的可行性尚不明確。雖然有關(guān)數(shù)據(jù)標記和隱私保護技術(shù)的研究仍在進行,但確保"更正權(quán)"仍然是一個開放性的挑戰(zhàn),應(yīng)持續(xù)監(jiān)督促進對這一需求的研究。刪除權(quán)(被遺忘權(quán)):個人有權(quán)要求刪除其個人數(shù)據(jù),這可能會影響人工智能/機器學習系統(tǒng)模型的訓練和使用方式。由于個人數(shù)據(jù)在訓練后可能會深嵌于模型內(nèi)部復雜的表征中,因此落實這項權(quán)利對這些模型是一項獨特的挑戰(zhàn)。目前,從訓練好的模型中移除特定數(shù)據(jù)點的技術(shù)可行性和倫理影響仍不明確,缺乏可靠的流程和既定的指導來處理此類請求,這就引發(fā)了如何平衡個人隱私與模型整體功能和社會利益這一關(guān)鍵問題。反對權(quán):個人有權(quán)反對出于特定目的處理其個人數(shù)據(jù),包括在生成式人工智能的背景下。然而,在生成式人工智能的背景下行使這項權(quán)利面臨著獨特的挑戰(zhàn)。目前還沒有可靠的標準化流程可以在模型訓練完成后將個人數(shù)據(jù)從訓練集中刪除。此外,反對權(quán)可能只適用于特定的數(shù)據(jù)元素或特定的目的,而不一定適用于用于訓練模型的所有信息,這可能會限制個人反對權(quán)的范圍。這凸顯了開發(fā)透明且負責任的生成式人工智能以尊重個人隱私權(quán)的必要性。合規(guī)性:《通用數(shù)據(jù)保護條例》要求對數(shù)據(jù)處理活動執(zhí)行數(shù)據(jù)隱私影響評估(DPIA),這也適用于人工智能系統(tǒng)的數(shù)據(jù)處理及其對數(shù)據(jù)主體造成的風險。在用于訓練大型生成式模型的大數(shù)據(jù)集中識別個人數(shù)據(jù)非常困難,目前還不清楚歐盟將如何處理生成式人工智能中的《通用數(shù)據(jù)保護條例》合規(guī)性問題。自動化決策管理治理:《通用數(shù)據(jù)保護條例》第22條規(guī)定,個人有權(quán)反對對其具有法律影響或重大影響的對個人資料分析執(zhí)行的自動化決策。這意味著個人有權(quán)選擇退出自動化決策或?qū)ψ詣記Q策做出的決定提出異議,尤其是當自動化決策可能引起偏見而對其生活產(chǎn)生重大影響的時候。因此,使用自動化決策的公司必須有人工申訴審查流程。如全球年收入超過250萬美元)并有權(quán)要求刪除或更正信息以確保信息準確性。企業(yè)必須將收集和處理個人信息的范圍限制在披露目的所必需的范圍內(nèi)?!都又菹M者隱私法案》的適用范圍還包括依賴于這些數(shù)據(jù)的人工智能/機器學習系統(tǒng),要求企業(yè)確保這些系統(tǒng)在涉及加州居民個人信息的訓練和輸出生成過程中遵守隱私要求。企業(yè)在利用加州居民的個人信息開發(fā)和部署生成式人工智能模型時,必須絕對遵守《加州消費者隱私法案》的義務(wù)。主要條款:在與其他信息結(jié)合后可用于識別個人身份。因此,“個人信息”/《加州隱私權(quán)法案》規(guī)定的“個人信息”,用戶有權(quán)該草案于2023年11月發(fā)布,重點關(guān)注負責任的使用自動化決策技術(shù)\h歐盟人工智能法案(EUAI適用范圍:EIAA適用于歐盟境內(nèi)參與人工智能系統(tǒng)開發(fā)、部署和使用的提供者、部署商、進口商、經(jīng)銷商和其他運營商,不適用于軍事、國防或國家安全目的。它針對人工智能系統(tǒng)的開發(fā)者和使用者提出了一系列規(guī)則和要求,重點關(guān)注四個風險等級:不可接受的風險、高風險、中風險和低風險。法案旨在確保對隱私和非歧視等基本權(quán)利的保護,確保人工智能系統(tǒng)的安全性和透明度,及如何負責任的使用人工智能系統(tǒng)。該法案適用于那些人工智能系統(tǒng)是在歐盟市場上提供或使用,或者使用影響到歐盟境內(nèi)人們的運營商。法案涵蓋了包括生物識別、自動駕駛汽車和關(guān)鍵基礎(chǔ)設(shè)施在內(nèi)的廣泛的人工智能應(yīng)用。主要條款時”遠程生物識別系統(tǒng)。第9條EIA第9條引入了基于風險的方法監(jiān)管歐盟內(nèi)的人工智能系統(tǒng),并平衡監(jiān)管與創(chuàng)新,確保人工智能系統(tǒng)安全可信,同時避免不必要的合規(guī)成本。人工智能系統(tǒng)被劃分為高風險、中風險和低風險,監(jiān)管水平將根據(jù)其對個人構(gòu)成的潛在危害程度而有所不同。透明性和可解釋性(13條):本條要求高風險人工智能系統(tǒng)必它規(guī)定成員國必須制定適當?shù)男姓蛩痉ǔ绦驁?zhí)行條例的規(guī)定。通過對違規(guī)行(第1條提供者必須確保高風險人工智能系統(tǒng)接受過高質(zhì)量、相關(guān)性和代表性數(shù)據(jù)集的訓練。它們還必須實施適當?shù)臄?shù)據(jù)管理措施,防止出現(xiàn)偏差以確保數(shù)據(jù)的準確性。使用數(shù)據(jù)訓練技術(shù)的高風險人工智能系統(tǒng)必須使用接受過高質(zhì)量的訓練、驗證和測試的數(shù)據(jù)集。必須實施設(shè)計選擇、數(shù)據(jù)收集過程、數(shù)據(jù)預(yù)處理操作等數(shù)據(jù)管理措施以解決偏差和數(shù)據(jù)缺口問題。(第1條提供者必須在高風險人工智能系統(tǒng)中納入適當?shù)娜祟惐O(jiān)督和干預(yù)機制,這包括確保系統(tǒng)在必要時可被人工操作覆蓋或停止。高風險人工智能系統(tǒng)的設(shè)計必須允許自然人在系統(tǒng)使用期間有效監(jiān)督。人類監(jiān)督措施應(yīng)旨在預(yù)防風險或最小化風險,并可集成到系統(tǒng)中或由部署者實施,被指派執(zhí)行人類監(jiān)督的自然人應(yīng)能夠了解系統(tǒng)的功能和局限性、檢測異常、解釋系統(tǒng)輸出并在必要時干預(yù)或覆蓋系統(tǒng)決策。酌情在包裝/支持創(chuàng)新的措施如下人工智能監(jiān)管沙箱在真實環(huán)境中測試高風險人工智能系統(tǒng)高風險人工智能系統(tǒng)的提供者或潛在提供者可以在人工智能監(jiān)管沙箱之外的真實環(huán)境中測試。管理與協(xié)調(diào)數(shù)據(jù)保護機構(gòu)的參與國家數(shù)據(jù)保護機構(gòu)和其他具有監(jiān)督職能的相關(guān)國家公共機關(guān)或機構(gòu)有責任根據(jù)保護基本權(quán)利的聯(lián)盟法律對人工智能系統(tǒng)進行監(jiān)督。負責監(jiān)督歐盟金融服務(wù)法的主管機關(guān)被指定為監(jiān)督人工智能法規(guī)實施的主管機關(guān),包括對受監(jiān)管和監(jiān)督的金融機構(gòu)提供或使用的人工智能系統(tǒng)有關(guān)的市場監(jiān)督活動。人工智能辦公室可邀請所有通用型人工智能模型的提供者遵守行為守則。透明報告和文件合規(guī)規(guī)定使用高風險人工智能系統(tǒng)的公共機構(gòu)必須在條例生效之日起六年內(nèi)遵守條例的要求。違規(guī)處罰EIAA規(guī)定違規(guī)罰款遵循分級制度對于使用被認為構(gòu)成不可接受風險的人工智能系統(tǒng),或不遵守條例第5條所列的人工智能行為實踐的違規(guī)行為,擬議的行政罰款最高可達35或其全球年營業(yè)額的7,以較高者為準。EIAA罰款數(shù)額應(yīng)根據(jù)人工智能系統(tǒng)的目的加以評估。此外,還應(yīng)考慮的因素包括是否已由其他主管部門處以行政罰款、運營商的規(guī)模、年營業(yè)額和市場份額等。其他決定因素還包括違規(guī)行為帶來的經(jīng)濟利益或損失、與國家主管部門的合作程度、運營商的責任、違規(guī)行為是如何被發(fā)現(xiàn)的、運營商是否存在疏忽或故意的情況,以及采取的任何為減輕受影響者所受損害的行動。它還規(guī)定,在訴訟中應(yīng)充分尊重當事人的辯護權(quán),并賦予他們查閱相關(guān)信息的權(quán)利,但要考慮到個人或企業(yè)保護其個人數(shù)據(jù)或商業(yè)秘密的合法權(quán)益。\h嚴格的訪問控制、審計和追蹤:《醫(yī)療電子交換法案》要求對受保護子交換法案》的規(guī)定。對訓練數(shù)據(jù)的限制:如上所述,《醫(yī)療電子交換法案》限制了對受保醫(yī)療電子交換法案》的“解釋權(quán)”規(guī)定至關(guān)重要?!夺t(yī)療電子交換法案》法規(guī)對生成式人工智能在醫(yī)療保健領(lǐng)域的應(yīng)用提出了重大挑戰(zhàn)。這些挑戰(zhàn)要求對人工智能系統(tǒng)進行全面的了解、實施和持續(xù)監(jiān)控。通過精心設(shè)計這些人工智能系統(tǒng)、采用強大的隱私保護技術(shù)并嚴格遵守法規(guī),我們可以解鎖生成式人工智能在改善醫(yī)療保健方面的潛力,同時保護患者隱私并確保負責任和合規(guī)地使用。在這個新興領(lǐng)域里,平衡創(chuàng)新與患者隱私仍然是一個關(guān)鍵挑戰(zhàn)?;糜X是指人工智能系統(tǒng)根據(jù)其所訓練的模式和數(shù)據(jù)生成逼真但與事實不符或關(guān)立法和法規(guī)的極大關(guān)注。\h或法律或民事調(diào)查或執(zhí)法相關(guān)行動的決策過程。\h\h\h(MaaS)反消費者隱私權(quán)或采用不公平競爭手段的提供模型即服務(wù)的公司可能受到反壟斷法和消費者保護法的追究。\h\h\h\h該行政令的重點是確保安全、可靠和合乎倫理地開發(fā)和使用人工智能,包括由聯(lián)邦政府層面制定和實施的人工智能相關(guān)法規(guī)和政策的缺失導致了一個復務(wù)所發(fā)布的“美國各州人工智能立法快照”中所強調(diào)的,這些法規(guī)的拼湊造成了一個關(guān)鍵的擔憂。解決人工智能算法和決策過程中基于受保護特征的歧視問題的現(xiàn)行法律和擬議法律摘要:美國平等就業(yè)機會委員會EEO)發(fā)布的技術(shù)援助文件是其“人工智能與算法公平性倡議”的一部分,該倡議旨在確保在招聘和其他就業(yè)決策中使用的軟件(包括人工智能)符合EEOC執(zhí)行的聯(lián)邦民權(quán)法律。/《加州隱私權(quán)法案》下,減少此類偏差以確保非聘行為,以及基于歐盟《通用數(shù)據(jù)保護條例》裁決而對基于人工智能的人臉識別目前的法律框架在處理生成式人工智能中的非歧視和公平問題時面臨著諸多限制:數(shù)據(jù)去偏、數(shù)據(jù)擴充(例如,生成合成數(shù)據(jù)以提高代表性)、數(shù)據(jù)加權(quán)(例如,為代表性不足群體的樣本分配更高的權(quán)重)”(一些?!保┑臄?shù)據(jù)集可以作為起點,但企業(yè)應(yīng)考適用法規(guī):相關(guān)法規(guī)有:《通用數(shù)據(jù)保護條例》(歐盟)算法透明度適用法規(guī):與此相關(guān)的有歐盟的《人工智能法案(EUAIAct)》,該法原則》(2021年);以及模型卡片文檔框架(谷歌研究),人類監(jiān)督和反饋(TotalProductLifeCycle,TPLC)方法提倡人類監(jiān)督,像“監(jiān)控人工智能/機器學習設(shè)須主動采用倫理標準來確保其人工智能系統(tǒng)公平公正,并利用這一機會“DEI嵌算法的透明度和可解釋性:2023年《人工智能權(quán)利法案》(白宮藍圖):這套非約束性的指導方針強調(diào)多細節(jié),請參閱《人工智能風險管理框架》(人工智能RMF1.0)。IBM的“可信賴的人工智能”微軟的“負責任的人工智能實踐”是值得信賴的人工智能開發(fā)和使用的指南和原則。AWS的“負責任的人工智能核心要素”是安全、負責任地開發(fā)人工智能的指\hOWASP大型語言模型應(yīng)用程序10大漏洞項目是一項旨在教育開發(fā)人員、設(shè)計同樣,OWASP機器學習十大風險項目(目前

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論