人工智能監(jiān)管制度概覽_第1頁
人工智能監(jiān)管制度概覽_第2頁
人工智能監(jiān)管制度概覽_第3頁
人工智能監(jiān)管制度概覽_第4頁
人工智能監(jiān)管制度概覽_第5頁
已閱讀5頁,還剩1頁未讀, 繼續(xù)免費閱讀

付費下載

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

隨著社會經(jīng)濟(jì)的發(fā)展,人工智能已廣泛應(yīng)用于當(dāng)今人們的工作與生活之中。

然而,人工智能在提供便利的同時,也會產(chǎn)生諸如算法黑箱和信息繭房等風(fēng)險,

因此,對其進(jìn)行監(jiān)管十分重要。本文通過梳理歐盟、美國和英國人工智能監(jiān)管制

度,來探究域外人工智能監(jiān)管問題。

截至目前,在人工智能監(jiān)管方面,歐盟、美國、英國并未出臺專門的法律法

規(guī),但己出現(xiàn)與人工智能相關(guān)的監(jiān)管指導(dǎo)性文件,其中公眾關(guān)注的有歐盟委員會

通過的《人工智能法案》(草案)、美國的《人工智能權(quán)利法案藍(lán)圖》與《人工

智能風(fēng)險管理框架1.0》、英國發(fā)布的指導(dǎo)性文件《人工智能監(jiān)管政策》與人工

智能新監(jiān)管框架的提案《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》。通過上述政策文件可

以發(fā)現(xiàn),目前歐盟、美國、英國在人工智能監(jiān)管的機構(gòu)設(shè)置、主要特點及具體內(nèi)

容等方面均存在一定的差異。

監(jiān)管的機構(gòu)設(shè)置

歐盟人工智能監(jiān)管的機構(gòu)設(shè)置。歐盟意識到使用人工智能技術(shù)可能帶來的潛

在風(fēng)險,因此,歐盟委員會于2021年發(fā)布的《人工智能條例》預(yù)設(shè)了一個專門

的國家監(jiān)督機構(gòu)來確保法律的適用和實施。該條例規(guī)定:"對于歐盟機構(gòu)和組織

開發(fā)的人工智能系統(tǒng),由歐洲數(shù)據(jù)保護(hù)監(jiān)督員主管負(fù)責(zé)?!礆W盟委員會提議在

每個成員國設(shè)立中央監(jiān)管機構(gòu)(歐洲人工智能委員會)和國家監(jiān)管機構(gòu)來對人工

智能進(jìn)行監(jiān)管。

美國人工智能監(jiān)管的機構(gòu)設(shè)置。一般來說,獨立的監(jiān)管機構(gòu)作為政府權(quán)力的

延伸與補充,其創(chuàng)建的目的通常是對不公平舉措進(jìn)行預(yù)防。目前,美國并未統(tǒng)一

設(shè)置人工智能監(jiān)管機構(gòu),各政府部門通過發(fā)布對現(xiàn)有規(guī)則的解釋與指引或發(fā)布新

規(guī)則來對人工智能進(jìn)行監(jiān)管,監(jiān)管主體有聯(lián)邦政府及其相關(guān)部門或機構(gòu)、州攻府

及其相關(guān)部門或機構(gòu)。

英國人工智能監(jiān)管的機構(gòu)設(shè)置。去中心化的英國制度不會創(chuàng)建新的監(jiān)管機構(gòu),

相反,其將依靠現(xiàn)有的監(jiān)管機構(gòu)來執(zhí)行,如金融行為監(jiān)管局、信息專員辦公室、

競爭與市場管理局、平等與人權(quán)委員會以及藥品和保健產(chǎn)品監(jiān)管機構(gòu),其中,信

息專員辦公室是英國擬建立的人工智能監(jiān)管機構(gòu)。

監(jiān)管的主要特點

歐盟自2016年起就不斷探索對人工智能技術(shù)應(yīng)用的監(jiān)管體系構(gòu)建,其以歐

洲整體層面為視角,致力于構(gòu)建協(xié)調(diào)一致、適合歐洲發(fā)展的人工智能治理體系。

歐盟監(jiān)管的政策重點是,以基本人權(quán)為底層邏輯,側(cè)重于保障個人權(quán)利。其治理

模式是基于比例原則的風(fēng)險分層治理。監(jiān)管機制是采取分級監(jiān)管、多種監(jiān)管,并

實行高額的行政處罰,且將公私機構(gòu)一起納入監(jiān)管范圍。歐盟在人工智能領(lǐng)域的

執(zhí)法案例主要涉及反壟斷法和數(shù)據(jù)保護(hù)法,典型案例是谷歌案,2017年,谷歌

因存在濫用市場支配地位行為而被歐盟委員會處以24.2億歐元的罰款。

美國側(cè)重于對人工智能在具體應(yīng)用場景下的監(jiān)管,但是尚未出臺統(tǒng)一綜合的

人工智能立法。聯(lián)邦政府在為市場提供監(jiān)管參考時通常采用白皮書、指南等形式;

地方政府在提供監(jiān)管參考時則多以立法形式。監(jiān)管政策的重點是,以促進(jìn)產(chǎn)業(yè)發(fā)

展為主,在治理時側(cè)重于維護(hù)公平和保護(hù)隱私。其治理模式是風(fēng)險評估與風(fēng)險管

理框架。監(jiān)管機制不是單一的依賴于行政監(jiān)管,而是強調(diào)政府部門與私營部門的

協(xié)作。并且,為了推動人工智能技術(shù)的發(fā)展,主張企業(yè)進(jìn)行自我監(jiān)管。

在執(zhí)法方面,主要集中在美國聯(lián)邦貿(mào)易委員會與美國版權(quán)局。兩個機構(gòu)以維

護(hù)市場公平競爭和保障人工智能技術(shù)合理使用為執(zhí)法目的,典型案例是

Everalbum人臉識別案和《黎明的曙光》版權(quán)案。

英國人工智能監(jiān)管政策的重點是,以促進(jìn)科技發(fā)展為主,治理方面?zhèn)戎赜谥?/p>

持創(chuàng)新的監(jiān)管體系。監(jiān)管機制是統(tǒng)籌協(xié)調(diào)各部門進(jìn)行人工智能監(jiān)管工作,強調(diào)監(jiān)

管方式的靈活性,并保持手段和目標(biāo)之間適當(dāng)?shù)谋壤?。在?zhí)法方面,英國以保

護(hù)用戶隱私數(shù)據(jù)安全為前提,并主要依賴于《英國通用數(shù)據(jù)保護(hù)條例》。然而,

英國信息專員辦公室執(zhí)法活躍度并不高,截至目前,僅有極少數(shù)的罰款案件。如

2021年的美國人臉識別公司ClearviewAl案,因ClearviewAI未經(jīng)個人同意自行

收集和處理個人生物識別數(shù)據(jù),英國信息專員辦公室以其侵犯英國隱私法律法規(guī)

為由,對美國人臉識別公司ClearviewAl處以750萬英鎊的罰款,命令Clearview

Al停止收集和使用在互聯(lián)網(wǎng)上公開的英國居民個人數(shù)據(jù),并從系統(tǒng)中刪除英國居

民的相關(guān)數(shù)據(jù)信息。

監(jiān)管的具體內(nèi)容

歐盟在2023年6月通過了《人工智能法案》的談判授權(quán)草案(以下簡稱《法

案》),《法案》的監(jiān)管思路是以橫向監(jiān)管為基礎(chǔ),以風(fēng)險規(guī)制為主要方式,同

時兼顧監(jiān)管與發(fā)展的動態(tài)平衡。

《法案》具有以下特征:

其一,根據(jù)風(fēng)險程度的等級對人工智能進(jìn)行分類,其中評估風(fēng)險是關(guān)鍵環(huán)節(jié),

分為不可接受的風(fēng)險、高風(fēng)險、有限風(fēng)險與最小風(fēng)險四類,并根據(jù)風(fēng)險程度的不

同來匹配不同的監(jiān)管措施。

其二,《法案》提出風(fēng)險管理覆蓋規(guī)制的全過程。歐盟為規(guī)避風(fēng)險,結(jié)合人

工智能的特征提出了全生命周期的規(guī)制方案,該方案將覆蓋人工智能產(chǎn)品入市前

與入市后,實現(xiàn)事前、事中、事后的全面規(guī)制。在事前階段,將人工智能的預(yù)期

風(fēng)險劃分為四個等級,依據(jù)應(yīng)用場景和風(fēng)險等級的不同,制定與之相對應(yīng)的監(jiān)管

舉措;在事中階段,強調(diào)人工智能監(jiān)管沙盒的作用機制;在事后階段,規(guī)定系統(tǒng)

供應(yīng)商應(yīng)針對高風(fēng)險進(jìn)行全程售后監(jiān)測,并及時將故障數(shù)據(jù)上報給國家監(jiān)管部門。

其三,根據(jù)風(fēng)險類型和風(fēng)險程度不同,對規(guī)制措施進(jìn)行動態(tài)調(diào)整。上市前需

對人工智能系統(tǒng)進(jìn)行合格評估,主要評估即將上市的系統(tǒng)是否屬于《法案》第二

章規(guī)定的各項禁止性做法。若高風(fēng)險人工智能系統(tǒng)在上市后發(fā)生實質(zhì)性修改,則

應(yīng)啟動新的評估程序。上市后需針對人工智能系統(tǒng)制定監(jiān)測計劃,并對高風(fēng)險系

統(tǒng)的監(jiān)測系統(tǒng)進(jìn)行重點監(jiān)測。因該監(jiān)測系統(tǒng)主要收集、分析基于使用人工智能系

統(tǒng)而產(chǎn)生的數(shù)據(jù),所以該系統(tǒng)需具備日志記錄功能,以保證相關(guān)數(shù)據(jù)的可追溯性。

美國于2022年10月提出了《人工智能權(quán)利法案藍(lán)圖》(以下簡稱《藍(lán)圖》),

《藍(lán)圖》并未明確實施細(xì)則,而是以公平與隱私為重點,要求相關(guān)主體在人工智

能系統(tǒng)開發(fā)過程中以堅守公平正義為底線,保證系統(tǒng)使用者不受算法歧視和數(shù)據(jù)

隱私泄露的侵害。《藍(lán)圖》通過設(shè)立五項基本原則來預(yù)防濫用人工智能技術(shù)帶來

的風(fēng)險,即規(guī)避算法歧視;加強隱私數(shù)據(jù)保護(hù);及時履行通知與解釋義務(wù);準(zhǔn)備

替補方案與退出機制;構(gòu)建安全高效系統(tǒng)。2023年1月,美國國家標(biāo)準(zhǔn)與技術(shù)

研究院發(fā)布《人工智能風(fēng)險管理框架1.0》(以下簡稱《框架1.0》)o該文件之

所以備受關(guān)注,一方面是因為其致力于識別與人工智能系統(tǒng)部署相關(guān)的各類風(fēng)險,

從性質(zhì)上來看是非強制性的指導(dǎo)性文件,可由相關(guān)機構(gòu)自愿選擇使用,其比約束

性法律更容易在應(yīng)用中實現(xiàn)更新迭代;另一方面是因為它是由多方利益主體共同

參與并制定的,具有高可信度和高接受度。

在具體內(nèi)容上,《框架1.0》由一個摘要、兩部分正文和四個附錄所組成,

第一部分是基礎(chǔ)信息,包含對人工智能風(fēng)險的界定、框架的管理目標(biāo)和受眾主體

等。第二部分是框架核心及具體配置,指出框架核心由四個頂層模塊所組成,即

治理、映射、測量和管理,而每個功能項下還分別下設(shè)兩級展開目錄。《框架

1.0》采用多元化的治理方案,旨在幫助相關(guān)主體部署人工智能系統(tǒng),減少對人

工智能技術(shù)的偏見,增強其可信度并保護(hù)個人數(shù)據(jù)隱私。從而有效規(guī)避人工智能

系統(tǒng)帶來的風(fēng)險,幫助諸多行業(yè)及組織將人工智能風(fēng)險管理原則轉(zhuǎn)化為實踐,以

提高相關(guān)主體使用人工智能系統(tǒng)的安全性與可靠性。

英國在人工智能監(jiān)管路徑設(shè)計方面主張平衡創(chuàng)新與發(fā)展。英國政府于2022

年7月頒布的《人工智能監(jiān)管政策》(以下簡稱《政策》),以創(chuàng)建新型人工智

能監(jiān)管機制為目標(biāo)。新型人工智能監(jiān)管機制將基于人工智能的自適應(yīng)性、自主性

等特征來協(xié)調(diào)各部門實施相應(yīng)的監(jiān)管工作。在監(jiān)管方面,《政策》提出了四項原

則:其一,堅持具體情形具體監(jiān)管原則。即根據(jù)不同的情形設(shè)置不同的監(jiān)管方案,

并明確各監(jiān)管機構(gòu)所承擔(dān)的監(jiān)管責(zé)任,從而保障監(jiān)管方案的針對性和有效性。其

二,遵循協(xié)調(diào)原則。即鼓勵監(jiān)管部門間建立溝通協(xié)調(diào)機制,從而實現(xiàn)跨部門的個

性化監(jiān)管。其三,鼓勵創(chuàng)新原則。即支持創(chuàng)新監(jiān)管,要求監(jiān)管機構(gòu)著力解決有明

確證據(jù)證明風(fēng)險存在的問題。其四,比例性原則。即在確保監(jiān)管方法與被監(jiān)管行

為特點相一致的同時,還應(yīng)確保目標(biāo)與方法之間的比例性。

2023年3月,英國發(fā)布政策報告《促進(jìn)創(chuàng)新的人工智能監(jiān)管方法》(以下

簡稱《方法》),《方法》的制定以提供具有創(chuàng)新性、可信賴性的人工智能監(jiān)管

框架為目的。《方法》指出,監(jiān)管

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論