版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
歐盟人工智能法案2023(譯文)歐洲議會,-考慮到委員會向議會和理事會提出的建議(COM(2021)0206)-考慮到《歐洲歐盟運(yùn)作條約》第16條和第114條,委員會據(jù)此向議會提交了本提案(C9-0146/2021)-考慮到《歐洲歐盟運(yùn)作條約》第294(3)條,-考慮到其議事規(guī)則第59條-考慮到內(nèi)部市場和消費(fèi)者保護(hù)委員會和公民自由、司法和內(nèi)政委員會根據(jù)議事規(guī)則第58條進(jìn)行的聯(lián)合審議-考慮到內(nèi)部市場和消費(fèi)者保護(hù)委員會以及公民自由、司法和內(nèi)政事務(wù)委員會的報(bào)告(A9-0000/2021);-5a.考慮到歐洲中央銀行的意見-5B.考慮到歐洲數(shù)據(jù)保護(hù)委員會和歐洲數(shù)據(jù)保護(hù)監(jiān)督員的聯(lián)合意見1.通過以下一讀立場;2.呼吁委員會在更換、大幅修改或打算大幅修改其提案時(shí),再次將該事項(xiàng)提交給議會;3.指示其主席向理事會、委員會和各國議會轉(zhuǎn)達(dá)其立場。(1)本條例的目的是促進(jìn)以人為本和值得信賴的人工智能的采用,并確保健康、安全、基本權(quán)利、民主和法治以及環(huán)境在歐盟內(nèi)獲得高度保護(hù),免受人工智能系統(tǒng)的有害影響,同時(shí)支持創(chuàng)新和改善內(nèi)部市場的運(yùn)作。本條例為人工智能的開發(fā)、投放市場、投入使用和符合歐盟價(jià)值觀的使用單獨(dú)規(guī)定了統(tǒng)一的法律框架,并確?;谌斯ぶ悄艿纳唐泛头?wù)的跨境自由流動。除非本條例明確授權(quán),成員國不得對人工智能系統(tǒng)的開發(fā)、銷售和使用施加限制。某些人工智能系統(tǒng)也會對民主和法治以及環(huán)境產(chǎn)生影響,就本條例而言,附件三第8點(diǎn)以及第15a條和附件四第3B點(diǎn)中分別列出的關(guān)鍵部門和使用案例對以上關(guān)切提供了具體回應(yīng)。(1a)本條例應(yīng)維護(hù)歐盟的價(jià)值觀,促進(jìn)人工智能的利益在全社會得到分配,保護(hù)個(gè)人、公司、民主和法治以及環(huán)境免受風(fēng)險(xiǎn)影響,同時(shí)促進(jìn)創(chuàng)新和就業(yè),使歐洲成為該領(lǐng)域的領(lǐng)導(dǎo)者。(2)人工智能系統(tǒng)(AI系統(tǒng))可以很容易地部署在經(jīng)濟(jì)和社會的多個(gè)部門,包括跨境部署,并在整個(gè)歐盟內(nèi)流通。已經(jīng)有成員國探索通過制定國家規(guī)則,確保人工智能是值得信賴和安全的,并在遵守基本權(quán)利義務(wù)的情況下開發(fā)和使用。不同的國家規(guī)則可能導(dǎo)致內(nèi)部市場的分裂,并減損開發(fā)或使用人工智能系統(tǒng)運(yùn)營商的法律確定性。因此,為了實(shí)現(xiàn)可信賴的人工智能,應(yīng)確保在整個(gè)歐盟范圍內(nèi)提供一致的高水平保護(hù),同時(shí)應(yīng)防止出現(xiàn)阻礙人工智能系統(tǒng)及相關(guān)產(chǎn)品和服務(wù)在內(nèi)部市場自由流通、創(chuàng)新、部署和采用的分歧,為此應(yīng)根據(jù)《歐洲歐盟運(yùn)作條約》(TFEU)第114條,為運(yùn)營商規(guī)定統(tǒng)一的義務(wù),并確保整個(gè)內(nèi)部市場的公共利益和個(gè)人權(quán)利獲得統(tǒng)一保護(hù)。(2a)由于人工智能經(jīng)常依賴于大量數(shù)據(jù)的處理,而許多人工智能系統(tǒng)和應(yīng)用依賴于個(gè)人數(shù)據(jù)的處理,因此本條例以《歐盟條約》第16條為基礎(chǔ)是合適的,該條規(guī)定了在處理個(gè)人數(shù)據(jù)方面保護(hù)自然人的權(quán)利,并規(guī)定在處理個(gè)人數(shù)據(jù)方面采用保護(hù)個(gè)人的規(guī)則。(2B)保護(hù)個(gè)人數(shù)據(jù)的基本權(quán)利尤其受到(歐盟)2016/679和(歐盟)2018/1725號條例以及2016/680號指令的保障。第2002/58/EC號指令還保護(hù)私人生活和通信的保密性,包括為任何存儲在終端設(shè)備中的個(gè)人和非個(gè)人數(shù)據(jù)以及通過終端設(shè)備訪問設(shè)定條件。這些法案為可持續(xù)和負(fù)責(zé)任的數(shù)據(jù)處理提供了基礎(chǔ),包括混合個(gè)人和非個(gè)人數(shù)據(jù)的數(shù)據(jù)集。本條例并不尋求影響現(xiàn)有歐盟法律對個(gè)人數(shù)據(jù)處理的適用,包括監(jiān)督其法律適用的各獨(dú)立監(jiān)督機(jī)構(gòu)的職務(wù)和職權(quán)。本條例不影響歐盟關(guān)于數(shù)據(jù)保護(hù)和隱私的法律所規(guī)定的以及《歐洲歐盟基本權(quán)利憲章》(“憲章”)所規(guī)定的私人生活和保護(hù)個(gè)人數(shù)據(jù)的基本權(quán)利。(2c)歐盟的人工智能系統(tǒng)受相關(guān)產(chǎn)品安全立法的約束,該立法提供了一個(gè)保護(hù)消費(fèi)者免受一般危險(xiǎn)產(chǎn)品影響的框架,此類立法應(yīng)繼續(xù)適用。本條例也不妨礙與消費(fèi)者保護(hù)和產(chǎn)品安全有關(guān)的其他歐盟法案所規(guī)定的規(guī)則,包括(歐盟)2017/2394號條例、(歐盟)2019/1020號條例和關(guān)于一般產(chǎn)品安全的2001/95/EC號指令以及2013/11/EU號指令。(2d)根據(jù)TFEU第114(2)條,本條例是對就業(yè)人員權(quán)益的補(bǔ)充,而不應(yīng)損害他們的權(quán)利和利益。因此,本條例不應(yīng)影響共同體關(guān)于社會政策的法律和國家勞動法和實(shí)踐,即任何關(guān)于就業(yè)條件、工作條件包括工作中的健康和安全以及雇主和工人之間關(guān)系的法律和合同規(guī)定,包括信息、協(xié)商和參與。本條例不應(yīng)影響成員國和歐盟層面承認(rèn)的基本權(quán)利的行使,包括根據(jù)國家法律和/或慣例舉行罷工或采取成員國具體勞資關(guān)系制度所涵蓋的其他行動的權(quán)利或自由。它也不應(yīng)影響協(xié)調(diào)做法、談判的權(quán)利、締結(jié)和執(zhí)行集體協(xié)議或根據(jù)國家法律和/或慣例采取集體行動。在任何情況下,它都不應(yīng)該阻止委員會提出關(guān)于受人工智能系統(tǒng)影響的工人的權(quán)利和自由的特別法。(2e)本條例不應(yīng)影響第2021/762/EC號指令中規(guī)定的旨在改善平臺工作條件的規(guī)定。(2f)本條例應(yīng)有助于支持研究和創(chuàng)新,不應(yīng)破壞研究和開發(fā)活動,尊重科學(xué)研究自由。因此,有必要將專門為科學(xué)研究和開發(fā)目的而開發(fā)的人工智能系統(tǒng)排除在其適用范圍之外,并確保該條例在其他方面不影響人工智能系統(tǒng)的科學(xué)研究和開發(fā)活動。在任何情況下,任何研究和開發(fā)活動都應(yīng)按照基本權(quán)利憲章、歐盟法律以及成員國的法律進(jìn)行。(3)人工智能由快速演化的技術(shù)族群組成,如果按照符合《歐盟基本權(quán)利憲章》相關(guān)一般原則和歐盟賴以生存的價(jià)值觀來發(fā)展,它可以而且已經(jīng)為整個(gè)行業(yè)和社會活動帶來了廣泛的經(jīng)濟(jì)、環(huán)境和社會效益。通過改善預(yù)測、優(yōu)化操作和資源分配,以及為個(gè)人和組織提供個(gè)性化的數(shù)字解決方案,使用人工智能可以為公司提供關(guān)鍵競爭優(yōu)勢,并對有益社會和環(huán)境的產(chǎn)出起到支撐作用,例如在醫(yī)療保健、農(nóng)業(yè)、食品安全、教育和培訓(xùn)、媒體、體育、文化、基礎(chǔ)設(shè)施管理、能源、運(yùn)輸和物流、危機(jī)管理、公共服務(wù)、安全、司法、資源和能源效率、環(huán)境監(jiān)測、生物多樣性和生態(tài)系統(tǒng)的保護(hù)和恢復(fù)以及氣候變化的紓解和適應(yīng)。(3a)為了促進(jìn)實(shí)現(xiàn)碳中和目標(biāo),歐洲公司應(yīng)尋求利用所有可協(xié)助實(shí)現(xiàn)這一目標(biāo)的現(xiàn)有技術(shù)進(jìn)步。人工智能是一種有可能被用來處理在工業(yè)、環(huán)境、健康和其他過程中產(chǎn)生的越來越多的數(shù)據(jù)的技術(shù)。為了促進(jìn)對基于人工智能的分析和優(yōu)化工具的投資,本條例應(yīng)該為低風(fēng)險(xiǎn)的工業(yè)解決方案提供一個(gè)可預(yù)測和成比例的環(huán)境。(4)同時(shí),根據(jù)其具體應(yīng)用和使用情況以及技術(shù)發(fā)展水平,人工智能可能會產(chǎn)生風(fēng)險(xiǎn),并對受歐盟法律保護(hù)的公共或私人利益和自然人的基本權(quán)利造成損害。這種傷害可能是物質(zhì)的或非物質(zhì)的,包括身體、心理、社會或經(jīng)濟(jì)的傷害。(4a)鑒于人工智能可能對社會產(chǎn)生的重大影響以及建立信任的需要,人工智能及其監(jiān)管框架的發(fā)展必須符合《歐盟條約》第2條所載的歐盟價(jià)值觀、《條約》、《憲章》和國際人權(quán)法所載的基本權(quán)利和自由。作為一個(gè)前提條件,人工智能應(yīng)該是一種以人為本的技術(shù)。它不應(yīng)該取代人類的自主性,也不應(yīng)該承擔(dān)個(gè)人自由的喪失,而應(yīng)該主要服務(wù)于社會需求和共同利益。應(yīng)提供保障措施,以確保開發(fā)和使用尊重歐盟價(jià)值觀和《憲章》的道德嵌入式人工智能。(5)因此,需要一個(gè)歐盟法律框架,規(guī)定關(guān)于人工智能的統(tǒng)一規(guī)則,以促進(jìn)人工智能在內(nèi)部市場的發(fā)展、使用和內(nèi)化,同時(shí)滿足對公共利益的高度保護(hù),如健康和安全、保護(hù)基本權(quán)利、民主和法治以及環(huán)境,這些都是歐盟法律所承認(rèn)和保護(hù)的。為了實(shí)現(xiàn)這一目標(biāo),應(yīng)該制定規(guī)則,規(guī)范某些人工智能系統(tǒng)的市場投放、投入使用和內(nèi)化,從而確保內(nèi)部市場的順利運(yùn)作,并使這些系統(tǒng)能夠受益于商品和服務(wù)的自由流動原則。這些規(guī)則在保護(hù)基本權(quán)利方面應(yīng)該是明確而有力的,支持新的創(chuàng)新解決方案,并使歐洲公共和私人行為者的生態(tài)系統(tǒng)能夠按照歐盟的價(jià)值觀創(chuàng)造人工智能系統(tǒng)。通過制定這些規(guī)則以及支持創(chuàng)新的措施,特別是對中小企業(yè)和初創(chuàng)企業(yè)的支持,本條例支持促進(jìn)“歐洲制造的人工智能”的目標(biāo),即歐盟在發(fā)展安全、可信和有道德的人工智能方面成為全球領(lǐng)導(dǎo)者,正如歐洲理事會所陳述[1],并確保維護(hù)道德原則,正如歐洲議會[2]所特別要求的。(5a)此外,為了促進(jìn)符合歐盟價(jià)值觀的人工智能系統(tǒng)的發(fā)展,歐盟需要解決阻礙數(shù)字轉(zhuǎn)型潛力的主要差距和障礙,包括數(shù)字技術(shù)員工的短缺、網(wǎng)絡(luò)安全問題、缺乏投資和投資機(jī)會,以及大公司、中小企業(yè)和初創(chuàng)企業(yè)之間的現(xiàn)有和潛在差距。應(yīng)特別注意確保歐盟所有地區(qū)都能感受到人工智能和新技術(shù)創(chuàng)新的好處,特別是向那些在某些數(shù)字指標(biāo)上可能落后的地區(qū)提供足夠的投資和資源。(6)應(yīng)明確界定本條例中人工智能系統(tǒng)的概念,并與從事人工智能工作的國際組織的工作密切配合,以確保法律的確定性、協(xié)調(diào)性和廣泛認(rèn)可,同時(shí)提供靈活性,以適應(yīng)這一領(lǐng)域技術(shù)的快速發(fā)展。此外,它應(yīng)基于人工智能的關(guān)鍵特征,如其學(xué)習(xí)、推理或建模能力,以便將其與更簡單的軟件系統(tǒng)或編程方法區(qū)分開來。人工智能系統(tǒng)被設(shè)計(jì)成具有不同程度的自主性,這意味著它們的活動至少在某種程度上獨(dú)立于人類的控制,并具有在沒有人類干預(yù)的情況下運(yùn)作的能力。術(shù)語“基于機(jī)器”指的是人工智能系統(tǒng)在機(jī)器上運(yùn)行的事實(shí)。本條例所指的顯性或隱性目標(biāo)強(qiáng)調(diào)了人工智能系統(tǒng)可以根據(jù)人類定義的顯性目標(biāo)或隱性目標(biāo)來運(yùn)行。人工智能系統(tǒng)的目標(biāo)可能與人工智能系統(tǒng)在特定情況下的預(yù)期目的不同。本條例所指的預(yù)測包括內(nèi)容,即本條例認(rèn)為內(nèi)容是預(yù)測的形式之一,是人工智能系統(tǒng)產(chǎn)生的可能輸出之一。在本條例中,環(huán)境應(yīng)被理解為人工智能系統(tǒng)運(yùn)行的上下文,而人工智能系統(tǒng)產(chǎn)生的輸出,即預(yù)測、建議或決定,是在所述環(huán)境輸入的基礎(chǔ)上對系統(tǒng)目標(biāo)做出的回應(yīng)。這種輸出會進(jìn)一步影響環(huán)境,哪怕只是向其引入新的信息。(6a)人工智能系統(tǒng)通常具有機(jī)器學(xué)習(xí)能力,使其能夠適應(yīng)并自主執(zhí)行新任務(wù)。機(jī)器學(xué)習(xí)是指從數(shù)據(jù)中優(yōu)化模型參數(shù)的計(jì)算過程,它是一種基于輸入數(shù)據(jù)生成輸出的數(shù)學(xué)構(gòu)造。機(jī)器學(xué)習(xí)方法包括,例如,有監(jiān)督、無監(jiān)督和強(qiáng)化學(xué)習(xí),使用各種方法,包括神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)。本條例旨在解決將控制權(quán)下放給人工智能系統(tǒng)可能產(chǎn)生的新的潛在風(fēng)險(xiǎn),特別是那些部署之后還可以進(jìn)化的人工智能系統(tǒng)。這類人工智能系統(tǒng)的許多功能和輸出是基于抽象的數(shù)學(xué)關(guān)系,人類很難理解、監(jiān)測和追溯到具體的輸入。這些復(fù)雜和不透明的特點(diǎn)(黑箱元素)影響了問責(zé)制和可解釋性。相當(dāng)簡單的技術(shù),如基于知識的方法、貝葉斯估計(jì)或決策樹,也可能導(dǎo)致法律的空白,需要本條例來解決,特別是當(dāng)它們與混合系統(tǒng)中的機(jī)器學(xué)習(xí)方法結(jié)合使用時(shí)。(6B)人工智能系統(tǒng)可以作為獨(dú)立的軟件系統(tǒng),集成到實(shí)體產(chǎn)品中(嵌入式),或者服務(wù)于實(shí)體產(chǎn)品功能但并不集成到相應(yīng)產(chǎn)品中(非嵌入式),或者作為一個(gè)更大的系統(tǒng)的人工智能組件來使用。如果這個(gè)更大的系統(tǒng)在沒有相關(guān)人工智能組件的情況下無法運(yùn)行,那么整個(gè)更大的系統(tǒng)應(yīng)被視為本條例下的單一人工智能系統(tǒng)。(7)本條例中使用的生物識別數(shù)據(jù)的概念及其解釋與歐洲議會和理事會第2016/679號條例(歐盟)第4(14)條中定義的生物識別數(shù)據(jù)的概念及其解釋保持一致?;谏镒R別的數(shù)據(jù)是基于自然人的身體、生理或行為信號,通過特定技術(shù)處理而得到的額外的相關(guān)數(shù)據(jù),如面部表情、動作、脈搏頻率、聲音、擊鍵或步態(tài)等數(shù)據(jù),此類數(shù)據(jù)可能足以確認(rèn)特定自然人的身份,也可能不足以確認(rèn)特定自然人的身份。(7a)本條例中使用的生物識別概念應(yīng)定義為自動識別人類的身體、生理、行為和心理特征,如面部、眼球運(yùn)動、面部表情、身體形狀、聲音、語言、步態(tài)、姿勢、心率、血壓、體味、擊鍵、心理反應(yīng)(憤怒、苦惱、悲傷等),以便通過比較個(gè)人的生物識別數(shù)據(jù)和數(shù)據(jù)庫中存儲的個(gè)人生物識別數(shù)據(jù)來確定個(gè)人身份(一對多識別),而不管個(gè)人是否同意。(7B)本條例中使用的生物統(tǒng)計(jì)分類概念應(yīng)界定為根據(jù)自然人的生物統(tǒng)計(jì)或基于生物統(tǒng)計(jì)的數(shù)據(jù),或可從這些數(shù)據(jù)中推斷出的特點(diǎn)和屬性,如性別、性別、年齡、發(fā)色、眼色、紋身、種族或社會出身、健康、精神或身體能力、行為或個(gè)性、特征語言、宗教或少數(shù)民族成員或性或政治取向。(8)本條例中使用的遠(yuǎn)程生物識別系統(tǒng)的概念應(yīng)在功能上加以定義,即在事先不知道目標(biāo)人物是否會出現(xiàn)并能被識別的情況下,旨在通過將一個(gè)人的生物識別數(shù)據(jù)與參考數(shù)據(jù)庫中的生物識別數(shù)據(jù)進(jìn)行比較,而遠(yuǎn)距離識別自然人的人工智能系統(tǒng),而不包括僅僅將一個(gè)人的生物識別數(shù)據(jù)與他們先前提供的生物識別數(shù)據(jù)進(jìn)行比較(一對一)的核查系統(tǒng)??紤]到它們的不同特點(diǎn)和使用方式,以及所涉及的不同風(fēng)險(xiǎn),應(yīng)該對“實(shí)時(shí)”和“事后”遠(yuǎn)程生物識別系統(tǒng)進(jìn)行區(qū)分。在“實(shí)時(shí)”系統(tǒng)的情況下,生物識別數(shù)據(jù)的采集、比較和識別都是即時(shí)的、接近即時(shí)的或在任何情況下都不會有明顯的延遲。在這方面,不應(yīng)通過規(guī)定輕微的延遲來規(guī)避本條例中關(guān)于“實(shí)時(shí)”使用有關(guān)人工智能系統(tǒng)的規(guī)則?!皩?shí)時(shí)”系統(tǒng)涉及使用“現(xiàn)場”或“接近”現(xiàn)場的資料,如攝像機(jī)或其他具有類似功能的設(shè)備產(chǎn)生的視頻片段。相反,在“事后”系統(tǒng)的情況下,生物識別數(shù)據(jù)已經(jīng)被采集,比較和識別是在經(jīng)過明顯的延遲后才發(fā)生。這涉及到由閉路電視攝像機(jī)或私人設(shè)備產(chǎn)生的圖片或視頻片段等資料,這些資料是在對有關(guān)自然人使用該系統(tǒng)之前產(chǎn)生的。鑒于生物識別的概念獨(dú)立于個(gè)人的同意,即使在遠(yuǎn)程生物識別系統(tǒng)監(jiān)控的地點(diǎn)放置警告通知,這一定義也適用,并不因預(yù)先登記而在事實(shí)上被取消。(8a)遠(yuǎn)距離識別自然人被理解為將遠(yuǎn)程生物識別系統(tǒng)與使用生物識別手段的近距離個(gè)人驗(yàn)證系統(tǒng)區(qū)分開來,后者的唯一目的是確認(rèn)出示身份的特定自然人準(zhǔn)入與否,例如,為了訪問服務(wù)、設(shè)備或場所。(9)就本條例而言,公眾可進(jìn)入的空間的概念應(yīng)理解為指任何可供公眾進(jìn)入的物理場所,無論該場所是私有還是公有,也無論其潛在的空間限制。因此,這一概念并不包括那些具有私人性質(zhì)、通常不允許第三方(包括執(zhí)法機(jī)關(guān))自由進(jìn)入的地方,除非獲得特別的邀請和許可,如家庭、私人俱樂部、辦公室、倉庫和工廠。網(wǎng)絡(luò)空間也不包括在內(nèi),因?yàn)樗鼈儾粚儆谖锢砜臻g。然而,特定條件可能適用于進(jìn)入特定空間這一事實(shí),如入場券或年齡限制,并不意味著該空間不屬于本條例意義上的公共空間。因此,除了街道、政府建筑的相關(guān)部分和大多數(shù)交通基礎(chǔ)設(shè)施等公共空間外,電影院、劇院、運(yùn)動場、學(xué)校、大學(xué)、醫(yī)院和銀行的相關(guān)區(qū)域、游樂園、節(jié)慶活動、商店和購物中心等空間通常也是公眾可進(jìn)入的。然而,一個(gè)特定的空間是否可供公眾使用,應(yīng)根據(jù)個(gè)案情況來確定,并考慮到眼前的具體情況。(9a)必須指出,人工智能系統(tǒng)應(yīng)盡最大努力尊重一般原則,建立一個(gè)高層次的框架,根據(jù)《歐盟基本權(quán)利憲章》和歐盟賴以建立的價(jià)值觀,促進(jìn)以人為本的一致道德和值得信賴的人工智能方法,包括保護(hù)基本權(quán)利、人類主體和監(jiān)督、技術(shù)穩(wěn)健和安全、隱私和數(shù)據(jù)治理、透明度、非歧視和公平以及社會和環(huán)境福祉。(9B)“人工智能素養(yǎng)”是指技能、知識和理解,使得提供者、使用者和受影響的人,考慮到他們各自在本條例中的權(quán)利和義務(wù),對人工智能系統(tǒng)進(jìn)行知情的部署,并對人工智能的機(jī)會和風(fēng)險(xiǎn)及其可能造成的傷害有所認(rèn)識,從而增進(jìn)其民主控制。人工智能素養(yǎng)不應(yīng)局限于學(xué)習(xí)工具和技術(shù),還應(yīng)該旨在讓提供者和使用者掌握確保遵守和執(zhí)行本條例所需的概念和技能。因此,委員會、成員國以及人工智能系統(tǒng)的提供者和使用者有必要與所有相關(guān)的利益攸關(guān)方合作,促進(jìn)社會各部門、各年齡段的人,包括婦女和女童,具備足夠水平的人工智能素養(yǎng),并密切關(guān)注相關(guān)進(jìn)展。(10)為確保一個(gè)公平的競爭環(huán)境,以及有效保護(hù)整個(gè)歐盟和國際范圍內(nèi)的個(gè)人權(quán)利和自由,本條例規(guī)定的規(guī)則應(yīng)以非歧視性的方式適用于人工智能系統(tǒng)的提供者,無論它們是在歐盟內(nèi)還是在第三國建立的,并適用于在歐盟內(nèi)建立的人工智能系統(tǒng)的部署者。為了使歐盟忠實(shí)于其基本價(jià)值觀,被用于本條例認(rèn)為不可接受的做法的人工智能系統(tǒng),在歐盟以外也應(yīng)同樣被認(rèn)為是不可接受的,因?yàn)槠鋵Α稓W盟基本權(quán)利憲章》中規(guī)定的基本權(quán)利產(chǎn)生特別有害的影響。因此,禁止居住在歐盟的供應(yīng)者向第三國出口這種人工智能系統(tǒng)是適當(dāng)?shù)摹?11)鑒于其數(shù)字性質(zhì),特定人工智能系統(tǒng)應(yīng)屬于本條例的范圍,即使它們既沒有投放市場,也沒有投入使用,也沒有在歐盟使用。例如,在歐盟設(shè)立的經(jīng)營者將某些服務(wù)外包給在歐盟以外設(shè)立的經(jīng)營者,該服務(wù)涉及將由人工智能系統(tǒng)執(zhí)行的高風(fēng)險(xiǎn)活動,其效果影響位于歐盟的自然人,就是這樣的情況。在這些情況下,歐盟以外的經(jīng)營者使用的人工智能系統(tǒng)可以處理在歐盟合法收集并從歐盟轉(zhuǎn)移的數(shù)據(jù),并向歐盟的簽約經(jīng)營者提供該人工智能系統(tǒng)在處理過程中產(chǎn)生的輸出,而該人工智能系統(tǒng)并未在歐盟投放市場、投入使用或使用。為防止規(guī)避本條例,并確保有效保護(hù)位于歐盟的自然人,本條例也應(yīng)適用于在第三國建立的人工智能系統(tǒng)的提供者和用戶部署者,只要這些系統(tǒng)產(chǎn)生的輸出是為了在歐盟使用。然而,考慮到現(xiàn)有的安排和與交換信息和證據(jù)的外國伙伴合作的特殊需要,本條例不應(yīng)適用于第三國公共當(dāng)局和國際組織在國家或歐盟一級締結(jié)的與歐盟或其成員國進(jìn)行執(zhí)法和司法合作的國際協(xié)議框架內(nèi)采取的行動。這類協(xié)議是成員國與第三國之間或歐盟、歐洲警察組織和其他歐盟機(jī)構(gòu)與第三國和國際組織之間雙邊締結(jié)的。不過,這種例外情況應(yīng)限于認(rèn)同歐盟價(jià)值觀的受信任國家和國際組織。(12)本條例也應(yīng)適用于作為人工智能系統(tǒng)提供者或部署者的歐盟機(jī)構(gòu)、辦事處、團(tuán)體和機(jī)構(gòu)。專門為軍事目的開發(fā)或使用的人工智能系統(tǒng)應(yīng)排除在本條例的范圍之外,因?yàn)檫@種使用屬于《歐盟條約》(TEU)第五章規(guī)定的共同外交和安全政策的專屬范圍。本條例應(yīng)不妨礙歐洲議會和理事會第2000/31/EC號指令[經(jīng)《數(shù)字服務(wù)法》修訂]中關(guān)于中介服務(wù)提供者責(zé)任的規(guī)定。(12a)公開共享的軟件和數(shù)據(jù),用戶可以自由獲取、使用、修改和重新分配它們或其修改版本,可以促進(jìn)市場的研究和創(chuàng)新。歐盟委員會的研究也表明,免費(fèi)且開源的軟件可以為歐盟的GDP貢獻(xiàn)650億至950億歐元,可以為歐洲經(jīng)濟(jì)提供重要的增長機(jī)會。用戶可以通過自由和開源許可證的方式運(yùn)行、復(fù)制、分發(fā)、研究、改變和改進(jìn)軟件和數(shù)據(jù),包括模型。為了促進(jìn)人工智能的發(fā)展和部署,特別是中小企業(yè)、初創(chuàng)企業(yè)、學(xué)術(shù)研究,但也包括個(gè)人,本條例不應(yīng)適用于這種免費(fèi)和開源的人工智能組件,除非它們作為高風(fēng)險(xiǎn)人工智能系統(tǒng)或?qū)儆诒緱l例第二或第四編的人工智能系統(tǒng)的一部分被投放到市場或由供應(yīng)者投入使用。(12B)合作開發(fā)免費(fèi)且開源的人工智能組件,或者在開放資源庫中提供這些組件都不應(yīng)該構(gòu)成投放市場或投入服務(wù)。然而,在向市場提供服務(wù)的理解范圍內(nèi),商業(yè)活動的特點(diǎn)可能是對免費(fèi)和開放源碼的人工智能組件收費(fèi),但微型企業(yè)之間的交易除外,商業(yè)活動的特點(diǎn)也可能是對技術(shù)支持服務(wù)收取價(jià)格,提供一個(gè)軟件平臺,供應(yīng)者通過該平臺實(shí)現(xiàn)其他服務(wù)的變現(xiàn),或者也可能是為改善軟件的安全性、兼容性或互操作性以外的原因使用個(gè)人數(shù)據(jù)。(12c)根據(jù)本條例,不應(yīng)強(qiáng)制免費(fèi)且開源人工智能組件的開發(fā)者遵守針對人工智能價(jià)值鏈的要求,特別是不應(yīng)針對使用該免費(fèi)和開源人工智能組件的供應(yīng)者。然而,應(yīng)鼓勵(lì)免費(fèi)且開源人工智能組件的開發(fā)者實(shí)施廣泛采用的存檔做法,如模型卡和數(shù)據(jù)卡,作為加速人工智能價(jià)值鏈上的信息共享的一種方式,允許在歐盟推廣值得信賴的人工智能系統(tǒng)。(13)為了確保在健康、安全和基本權(quán)利以及民主和法治及環(huán)境方面對公共利益提供一致和高水平的保護(hù),應(yīng)該為所有高風(fēng)險(xiǎn)的人工智能系統(tǒng)建立共同的規(guī)范性標(biāo)準(zhǔn)。這些標(biāo)準(zhǔn)應(yīng)符合《歐盟基本權(quán)利憲章》(theCharter)、《歐洲綠色協(xié)議》(theGreenDeal)、《歐盟數(shù)字權(quán)利聯(lián)合宣言》(theDeclaration)以及人工智能高級別專家組(AIHLEG)的《可信賴的人工智能(AI)道德準(zhǔn)則》,并應(yīng)是非歧視性的,符合歐盟的國際貿(mào)易承諾。(14)為了對人工智能系統(tǒng)引入一套成比例且有效的約束性規(guī)則,應(yīng)遵循一個(gè)明確界定的基于風(fēng)險(xiǎn)的方法。這種方法應(yīng)根據(jù)人工智能系統(tǒng)可能產(chǎn)生的風(fēng)險(xiǎn)的強(qiáng)度和范圍來確定這種規(guī)則的類型和內(nèi)容。因此,有必要禁止特定的不可接受的人工智能實(shí)踐,為高風(fēng)險(xiǎn)的人工智能系統(tǒng)規(guī)定要求和相關(guān)運(yùn)營商的義務(wù),并為某些人工智能系統(tǒng)規(guī)定透明度義務(wù)。(15)除了人工智能的許多有益用途外,該技術(shù)也可能被濫用,并為操縱、剝削和社會控制做法提供新的強(qiáng)大工具。這種做法會導(dǎo)致虐待和有害影響,應(yīng)予以禁止,因?yàn)樗鼈冞`背了歐盟尊重人類尊嚴(yán)、自由、平等、民主和法治的價(jià)值觀以及歐盟的基本權(quán)利,包括不受歧視的權(quán)利、數(shù)據(jù)保護(hù)和隱私以及兒童權(quán)利。(16)應(yīng)禁止將某些人工智能系統(tǒng)投放市場、投入服務(wù)或使用,如果其目的或效果是實(shí)質(zhì)性地扭曲人類行為,從而有可能發(fā)生身體或心理傷害。這一限制應(yīng)被理解為包括由人工智能系統(tǒng)輔助的神經(jīng)技術(shù),這些技術(shù)用于監(jiān)測、使用或影響通過腦機(jī)接口收集的神經(jīng)數(shù)據(jù),只要這些技術(shù)在實(shí)質(zhì)上扭曲自然人的行為,導(dǎo)致或可能導(dǎo)致該人或另一人受到重大傷害的方式。這種人工智能系統(tǒng)部署了潛意識組件,個(gè)人無法感知或利用個(gè)人和特定群體因其已知或預(yù)測的個(gè)性特征、年齡、身體或精神缺陷、社會或經(jīng)濟(jì)狀況而存在的脆弱性。他們這樣做的目的或效果是實(shí)質(zhì)性地扭曲一個(gè)人的行為,并對該人或另一個(gè)人或一群人造成或可能造成重大傷害,包括可能長期積累的傷害。如果扭曲行為是由人工智能系統(tǒng)以外的因素造成的,而這些因素不在提供者或使用者的控制范圍內(nèi),例如人工智能系統(tǒng)的提供者或部署者可能無法合理地預(yù)見和紓解的因素,則可能無法推定扭曲行為的意圖。在任何情況下,提供者或部署者都不需要有造成重大傷害的意圖,只要這種傷害是由操縱性或剝削性的人工智能做法造成的。對此類人工智能行為的禁止是對指令[經(jīng)(歐盟)2019/216號指令修訂的不公平商業(yè)行為指令2005/29/EC]所載規(guī)定的補(bǔ)充,根據(jù)該指令,不公平的商業(yè)行為是被禁止的,無論其是否借助于人工智能系統(tǒng)進(jìn)行。在這種情況下,符合歐盟法律的合法商業(yè)行為,例如在廣告領(lǐng)域,其本身不應(yīng)視為違反禁令。與這種人工智能系統(tǒng)有關(guān)的合法目的的研究不應(yīng)受到禁令的阻礙,如果這種研究不等于在人機(jī)關(guān)系中使用人工智能系統(tǒng),使自然人受到傷害,而且這種研究是按照公認(rèn)的科學(xué)研究道德標(biāo)準(zhǔn)進(jìn)行的,并在接觸這些系統(tǒng)的個(gè)人或其法定監(jiān)護(hù)人(如適用)的具體知情同意基礎(chǔ)上進(jìn)行。(16a)根據(jù)已知或推斷的敏感或受保護(hù)的特征將自然人歸入特定類別的人工智能系統(tǒng)特別具有侵?jǐn)_性,其侵犯了人的尊嚴(yán),具有很大的歧視風(fēng)險(xiǎn)。這些特征包括性別、性別認(rèn)同、種族、民族血統(tǒng)、移民或公民身份、政治取向、性取向、宗教、殘疾或《歐盟基本權(quán)利憲章》第21條以及(歐盟)2016/769號條例第9條所禁止的任何其他歧視理由。因此,這類系統(tǒng)應(yīng)該被禁止。(17)為一般目的提供自然人社會評分的人工智能系統(tǒng)可能導(dǎo)致歧視性的結(jié)果和對某些群體的排斥。它們違反了尊嚴(yán)和不受歧視的權(quán)利以及平等和正義的價(jià)值觀。這種人工智能系統(tǒng)根據(jù)與自然人在多種情況下的社會行為或已知、推斷或預(yù)測的個(gè)人或人格特征有關(guān)的多個(gè)數(shù)據(jù)點(diǎn)和時(shí)間發(fā)生情況,對自然人或群體進(jìn)行評估或分類。從這種人工智能系統(tǒng)獲得的社會評分可能導(dǎo)致自然人或其整個(gè)群體在社會環(huán)境中受到不利或負(fù)面的待遇,而這種待遇與最初產(chǎn)生或收集數(shù)據(jù)的環(huán)境無關(guān),或者導(dǎo)致與其社會行為的嚴(yán)重性不成比例或不合理的不利待遇。因此,這種人工智能系統(tǒng)應(yīng)被禁止。(18)使用人工智能系統(tǒng)在公共場所對自然人進(jìn)行“實(shí)時(shí)”遠(yuǎn)程生物識別,對有關(guān)人員的權(quán)利和自由特別具有侵?jǐn)_性,最終會影響大部分人的私人生活,造成一種持續(xù)監(jiān)視的感覺,使在公共場所部署生物識別的各方具有不受控制的權(quán)力地位,并間接阻止行使集會自由和其他作為法治核心的基本權(quán)利。旨在對自然人進(jìn)行遠(yuǎn)程生物識別的人工智能系統(tǒng)在技術(shù)上的不準(zhǔn)確性可能會導(dǎo)致有偏見的結(jié)果并帶來歧視性影響。當(dāng)涉及到年齡、種族、性別或殘疾時(shí),這一點(diǎn)尤其相關(guān)。此外,影響的即時(shí)性和進(jìn)一步檢查或糾正的機(jī)會有限,使用這種系統(tǒng)的“實(shí)時(shí)”操作對執(zhí)法活動所涉及的人的權(quán)利和自由有更大的風(fēng)險(xiǎn)。因此,應(yīng)禁止在公眾可進(jìn)入的地方使用這些系統(tǒng)。同樣,通過“事后”遠(yuǎn)程生物識別系統(tǒng)分析公共場所的錄像的人工智能系統(tǒng)也應(yīng)被禁止,除非在執(zhí)法過程中,在與已經(jīng)發(fā)生的特定嚴(yán)重刑事犯罪有關(guān)的目標(biāo)搜索嚴(yán)格需要的情況下,其使用獲得司法前授權(quán)。(24)任何處理生物識別數(shù)據(jù)和其他涉及使用人工智能系統(tǒng)進(jìn)行生物識別的個(gè)人數(shù)據(jù),除了與本條例規(guī)定的為執(zhí)法目的在公共場所使用“實(shí)時(shí)”遠(yuǎn)程生物識別系統(tǒng)有關(guān),應(yīng)繼續(xù)遵守(歐盟)2016/679號條例第9條第1款、(歐盟)2018/1725號條例第10條第1款和(歐盟)2016/680號指令第10條的所有要求,如適用。(25)根據(jù)《歐盟條約》和《歐盟條約》所附的關(guān)于聯(lián)合王國和愛爾蘭在自由、安全和司法領(lǐng)域的立場的第21號議定書第6a條,愛爾蘭不受第5條第1款(d)項(xiàng)規(guī)定的規(guī)則約束、愛爾蘭不受根據(jù)《歐盟條約》第16條通過的本條例第5(1)條(d)項(xiàng)規(guī)定的約束,這些規(guī)定涉及成員國在開展屬于《歐盟條約》第三部分第五編第4章或第5章范圍內(nèi)的活動時(shí)對個(gè)人數(shù)據(jù)的處理,愛爾蘭不受管理刑事事項(xiàng)司法合作或警察合作形式的規(guī)則約束,這些規(guī)則要求遵守根據(jù)《歐盟條約》第16條制定的條款。(26)根據(jù)《歐盟條約》和《歐盟條約》所附的關(guān)于丹麥立場的第22號議定書第2條和第2a條,丹麥不受根據(jù)《歐盟條約》第16條通過的本條例第5(1)條(d)點(diǎn)規(guī)定的規(guī)則的約束,或受其應(yīng)用的約束,這些規(guī)則涉及成員國在開展屬于《歐盟條約》第三部分第五編第4章或第5章范圍的活動時(shí)對個(gè)人數(shù)據(jù)的處理。(26a)執(zhí)法機(jī)關(guān)或代表執(zhí)法機(jī)關(guān)使用的人工智能系統(tǒng),根據(jù)對自然人的畫像,或者基于個(gè)性特征和特點(diǎn)的數(shù)據(jù)分析,包括個(gè)人的位置,或者自然人或群體過去的犯罪行為,進(jìn)行預(yù)測、畫像或風(fēng)險(xiǎn)評估以預(yù)測實(shí)際或潛在的刑事犯罪或其他被定罪的社會行為或行政違法的發(fā)生或再次發(fā)生,包括欺詐預(yù)測系統(tǒng),具有歧視某些人或群體的特別風(fēng)險(xiǎn),因?yàn)樗鼈兦址噶巳祟愖饑?yán)以及無罪推定的關(guān)鍵法律原則。因此,這種人工智能系統(tǒng)應(yīng)被禁止。(26B)不加區(qū)分地地從社交媒體或閉路電視錄像中爬取生物識別數(shù)據(jù),以建立或擴(kuò)大面部識別數(shù)據(jù)庫,加劇了大規(guī)模監(jiān)視感,可能導(dǎo)致嚴(yán)重侵犯基本權(quán)利,包括隱私權(quán)。因此,應(yīng)禁止使用具有這種預(yù)期目的的人工智能系統(tǒng)。(26c)人們對旨在檢測情緒、身體或生理特征(如面部表情、動作、脈搏頻率或聲音)的人工智能系統(tǒng)的科學(xué)依據(jù)提出嚴(yán)肅關(guān)切。情緒或情緒的表達(dá)以及對其的看法在不同的文化和情況下有很大的不同,甚至同一個(gè)人的看法也會變化。這類技術(shù)的主要缺點(diǎn)是其可靠性有限(情緒類別既不能通過一套共同的身體或生理動作可靠地表達(dá),也不能明確地與之相關(guān)聯(lián)),缺乏特異性(身體或生理表達(dá)與情緒類別并不完全匹配)和普適性有限(沒有充分考慮背景和文化的影響)。在執(zhí)法、邊境管理、工作場所和教育機(jī)構(gòu)等現(xiàn)實(shí)生活中部署該系統(tǒng)時(shí),可能會出現(xiàn)可靠性問題,因此也會有濫用的重大風(fēng)險(xiǎn)。因此,應(yīng)禁止將打算在這些情況下用于檢測個(gè)人情緒狀態(tài)的人工智能系統(tǒng)投放市場、投入服務(wù)或使用。(26d)歐盟立法所禁止的實(shí)踐,包括數(shù)據(jù)保護(hù)法、非歧視法、消費(fèi)者保護(hù)法和競爭法所禁止的實(shí)踐,不應(yīng)受到本條例的影響。(27)高風(fēng)險(xiǎn)的人工智能系統(tǒng)只有在符合某些強(qiáng)制性要求的情況下才能投放到歐盟市場、提供服務(wù)或使用。這些要求應(yīng)確保在歐盟可用的高風(fēng)險(xiǎn)人工智能系統(tǒng)或其產(chǎn)出在歐盟使用時(shí)不會對歐盟法律承認(rèn)和保護(hù)的重大歐盟公共利益,包括對基本權(quán)利、民主、法治或環(huán)境構(gòu)成不可接受的風(fēng)險(xiǎn)。為確保與部門立法相一致并避免重復(fù),對高風(fēng)險(xiǎn)人工智能系統(tǒng)的要求應(yīng)考慮到為在本條例范圍內(nèi)為高風(fēng)險(xiǎn)人工智能系統(tǒng)設(shè)定要求的部門立法,如關(guān)于醫(yī)療設(shè)備的條例(歐盟)2017/745和關(guān)于體外診斷設(shè)備的條例(歐盟)2017/746或關(guān)于機(jī)械的指令2006/42/EC。被確定為高風(fēng)險(xiǎn)的人工智能系統(tǒng)應(yīng)限于那些對歐盟內(nèi)人員的健康、安全和基本權(quán)利有重大有害影響的系統(tǒng),這種限制將對國際貿(mào)易的任何潛在限制(如果有的話)降到最低。鑒于技術(shù)的快速發(fā)展,以及人工智能系統(tǒng)使用方面的潛在變化,附件三中的高風(fēng)險(xiǎn)領(lǐng)域和使用情況清單仍應(yīng)通過定期評估進(jìn)行長期審查。(28)人工智能系統(tǒng)可能對人的健康和安全產(chǎn)生不利影響,特別是當(dāng)這種系統(tǒng)作為產(chǎn)品的安全組件運(yùn)行時(shí)。與歐盟協(xié)調(diào)立法的目標(biāo)一致,即促進(jìn)產(chǎn)品在內(nèi)部市場的自由流動,并確保只有安全和其他合規(guī)的產(chǎn)品才能進(jìn)入市場,重要的是要適當(dāng)防止和減輕因其數(shù)字組件(包括人工智能系統(tǒng))對產(chǎn)品整體可能產(chǎn)生的安全風(fēng)險(xiǎn)。例如,越來越多的自主機(jī)器人,無論是在制造業(yè)還是在個(gè)人援助和護(hù)理方面,都應(yīng)該能夠在復(fù)雜的環(huán)境中安全操作和執(zhí)行其功能。同樣,在對生命和健康威脅特別大的衛(wèi)生部門,越來越復(fù)雜的診斷系統(tǒng)和支持人類決策的系統(tǒng)應(yīng)該是可靠和準(zhǔn)確的。(28a)在將人工智能系統(tǒng)歸類為高風(fēng)險(xiǎn)時(shí),人工智能系統(tǒng)對《憲章》所保護(hù)的基本權(quán)利造成的不利影響的程度尤其重要。這些權(quán)利包括人的尊嚴(yán)、尊重私人和家庭生活、保護(hù)個(gè)人數(shù)據(jù)、言論和信息自由、集會和結(jié)社自由以及不受歧視的權(quán)利、受教育權(quán)、消費(fèi)者保護(hù)、工人權(quán)利、殘疾人權(quán)利、性別平等、知識產(chǎn)權(quán)、獲得有效補(bǔ)救和公平審判的權(quán)利、辯護(hù)權(quán)和無罪推定、良好管理的權(quán)利。除了這些權(quán)利之外,重要的是要強(qiáng)調(diào),兒童擁有《歐盟憲章》第24條和《聯(lián)合國兒童權(quán)利公約》(在《聯(lián)合國兒童權(quán)利公約》關(guān)于數(shù)字環(huán)境的第25號一般性意見中得到進(jìn)一步闡述)所規(guī)定的具體權(quán)利,這兩項(xiàng)權(quán)利都要求考慮兒童的脆弱性,并為他們的福祉提供必要的保護(hù)和照顧。在評估人工智能系統(tǒng)可能造成的傷害的嚴(yán)重程度時(shí),包括對人的健康和安全或環(huán)境的傷害,也應(yīng)考慮《憲章》中所載的并在歐盟政策中實(shí)施的獲得高水平環(huán)境保護(hù)的基本權(quán)利。(29)至于作為產(chǎn)品安全組件的高風(fēng)險(xiǎn)人工智能系統(tǒng),或其本身在歐洲議會和理事會第300/2008號條例[3]、歐洲議會和理事會第167/2013號條例[4]范圍內(nèi)的產(chǎn)品或系統(tǒng)、歐洲議會和理事會第168/2013號條例(EU)[5]、歐洲議會和理事會第2014/90/EU號指令[6]、歐洲議會和理事會第2016/797號指令[7]、歐洲議會和理事會第2018/858號條例(EU)[8]、歐洲議會和理事會的(EU)2018/1139號條例[9]以及歐洲議會和理事會的(EU)2019/2144號條例[10]適用范圍內(nèi),考慮到本條例規(guī)定的高風(fēng)險(xiǎn)AI系統(tǒng)的強(qiáng)制性要求,在未來根據(jù)這些法案通過任何相關(guān)的委托或?qū)嵤┓ò笗r(shí),委員會可對上述條例進(jìn)行修正,前提是根據(jù)每個(gè)部門的技術(shù)和監(jiān)管特點(diǎn),并不干擾現(xiàn)有治理、合格評估、市場監(jiān)督和執(zhí)法機(jī)制及其設(shè)立機(jī)構(gòu)。(30)對于作為產(chǎn)品的安全組件或本身就是產(chǎn)品的人工智能系統(tǒng),屬于本條例附件二所列的某些歐盟協(xié)調(diào)立法的范圍,如果根據(jù)該相關(guān)歐盟協(xié)調(diào)立法,為確保符合第三方合格評估機(jī)構(gòu)的基本安全要求而對該產(chǎn)品進(jìn)行合格評估程序,則根據(jù)本條例將其列為高風(fēng)險(xiǎn)產(chǎn)品是適當(dāng)?shù)?。特別是,當(dāng)這些產(chǎn)品是機(jī)械、玩具、電梯、用于潛在爆炸性環(huán)境的設(shè)備和保護(hù)系統(tǒng)、無線電設(shè)備、壓力設(shè)備、娛樂船只設(shè)備、索道裝置、燃燒氣體燃料的器具、醫(yī)療設(shè)備和體外診斷醫(yī)療設(shè)備時(shí)。(31)某人工智能系統(tǒng)按照本條例被歸類為高風(fēng)險(xiǎn),不一定意味著該人工智能系統(tǒng)構(gòu)成其安全組件的產(chǎn)品本身或作為產(chǎn)品的人工智能系統(tǒng)本身構(gòu)成適用于該產(chǎn)品的相關(guān)歐盟協(xié)調(diào)立法所確定的標(biāo)準(zhǔn)認(rèn)為的“高風(fēng)險(xiǎn)”。歐洲議會和理事會的第2017/745號條例[11]和歐洲議會和理事會的第2017/746號條例[12]為中風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)產(chǎn)品規(guī)定第三方合格評估,指的就是這種情況。(32)獨(dú)立的人工智能系統(tǒng),即作為產(chǎn)品的安全組件以外的其他高風(fēng)險(xiǎn)人工智能系統(tǒng),或本身是產(chǎn)品并屬于附件三列舉的某領(lǐng)域和用例的人工智能系統(tǒng)外,如果根據(jù)其預(yù)期目的,它們對人的健康和安全或基本權(quán)利構(gòu)成重大損害風(fēng)險(xiǎn),或在人工智能系統(tǒng)被用作關(guān)鍵基礎(chǔ)設(shè)施的安全組件時(shí),對環(huán)境構(gòu)成重大損害風(fēng)險(xiǎn)的,則應(yīng)將其列為高風(fēng)險(xiǎn)。這種重大的傷害風(fēng)險(xiǎn)應(yīng)通過評估這種風(fēng)險(xiǎn)的影響來確定:一方面評估其嚴(yán)重程度、強(qiáng)度、發(fā)生概率和持續(xù)時(shí)間的總和,另一方面評估這種風(fēng)險(xiǎn)是否會影響個(gè)人、多人或特定群體。例如,這種組合可能導(dǎo)致影響一個(gè)自然人低概率但高嚴(yán)重性的風(fēng)險(xiǎn),或在很長一段時(shí)間對一群人帶來持續(xù)低風(fēng)險(xiǎn),視具體情形而定。這些系統(tǒng)的識別使用與高風(fēng)險(xiǎn)人工智能系統(tǒng)清單同樣的方法和標(biāo)準(zhǔn),而這些方法和標(biāo)準(zhǔn)未來可能會修正。(32a)其人工智能系統(tǒng)屬于附件三所列領(lǐng)域和用例之一的供應(yīng)者,如果認(rèn)為其系統(tǒng)不會對健康、安全、基本權(quán)利或環(huán)境構(gòu)成重大損害風(fēng)險(xiǎn),應(yīng)通過提交一份合理的通知來通知國家監(jiān)管當(dāng)局。其形式可以是有關(guān)人工智能系統(tǒng)的相關(guān)信息的一頁摘要,包括其預(yù)期目的以及為什么它不會對健康、安全、基本權(quán)利或環(huán)境構(gòu)成重大損害風(fēng)險(xiǎn)。委員會應(yīng)確定標(biāo)準(zhǔn),使公司能夠評估其系統(tǒng)是否會造成這種風(fēng)險(xiǎn),并為通知制定一個(gè)易于使用的標(biāo)準(zhǔn)化模板。供應(yīng)者應(yīng)盡早提交通知,無論如何都必須在人工智能系統(tǒng)投放市場或投入使用之前,最好是在開發(fā)階段通知,通知后他們可在任何時(shí)間自由投放市場。然而,如果當(dāng)局估計(jì)有關(guān)的人工智能系統(tǒng)被錯(cuò)誤分類,它應(yīng)該在三個(gè)月內(nèi)對通知提出異議。該反對意見應(yīng)得到證實(shí),并適當(dāng)解釋該人工智能系統(tǒng)被錯(cuò)誤分類的原因。提供者應(yīng)保留上訴權(quán)利,提供進(jìn)一步的論據(jù)。如果三個(gè)月后沒有人對通知提出反對意見,但人工智能系統(tǒng)在國家層面帶來風(fēng)險(xiǎn),國家監(jiān)督機(jī)構(gòu)仍然可以進(jìn)行干預(yù),就像市場上任何其他人工智能系統(tǒng)一樣。國家監(jiān)督機(jī)構(gòu)應(yīng)向人工智能辦公室提交年度報(bào)告,詳細(xì)說明收到的通知和做出的決定。(33)根據(jù)第2016/679號條例,生物識別數(shù)據(jù)構(gòu)成特殊類別的敏感個(gè)人數(shù)據(jù),因此宜將生物識別和基于生物識別的系統(tǒng)的幾個(gè)關(guān)鍵使用案例列為高風(fēng)險(xiǎn)。擬用于自然人生物識別的人工智能系統(tǒng)和擬用于根據(jù)生物識別或基于生物識別的數(shù)據(jù)對自然人的個(gè)人特征進(jìn)行推斷的人工智能系統(tǒng),包括情感識別系統(tǒng)應(yīng)被列為高風(fēng)險(xiǎn),但本條例所禁止的系統(tǒng)除外。這不應(yīng)該包括打算用于生物識別驗(yàn)證的人工智能系統(tǒng),認(rèn)證也包括在內(nèi)。認(rèn)證的唯一目的是確認(rèn)特定的自然人是他或她聲稱的那個(gè)人,并確認(rèn)自然人的身份,確認(rèn)的唯一目的是準(zhǔn)入服務(wù)、設(shè)備或場所(一對一驗(yàn)證)。歐盟法律規(guī)定的用于實(shí)現(xiàn)網(wǎng)絡(luò)安全和個(gè)人數(shù)據(jù)保護(hù)措施的生物識別和基于生物識別的系統(tǒng),不應(yīng)視為對健康、安全和基本權(quán)利構(gòu)成重大危害的風(fēng)險(xiǎn)。(34)關(guān)于關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)作,將打算用作水、煤氣、供熱電力和關(guān)鍵數(shù)字基礎(chǔ)設(shè)施的管理和運(yùn)作中的安全組件的人工智能系統(tǒng)列為高風(fēng)險(xiǎn)是適當(dāng)?shù)?,因?yàn)樗鼈兊墓收匣蚴ъ`可能侵犯這種關(guān)鍵基礎(chǔ)設(shè)施的安全和完整性,或大規(guī)模地危及人們的生命和健康,并導(dǎo)致社會和經(jīng)濟(jì)活動的正常進(jìn)行受到明顯干擾。關(guān)鍵基礎(chǔ)設(shè)施的安全組件,包括關(guān)鍵數(shù)字基礎(chǔ)設(shè)施,是用于直接保護(hù)物理基礎(chǔ)設(shè)施的物理完整性或人員和財(cái)產(chǎn)的健康和安全的系統(tǒng)。這些部件的故障或失靈可能直接導(dǎo)致關(guān)鍵基礎(chǔ)設(shè)施的物理完整性受損風(fēng)險(xiǎn),從而導(dǎo)致人員和財(cái)產(chǎn)的健康和安全的風(fēng)險(xiǎn)。僅用于網(wǎng)絡(luò)安全目的的組件不應(yīng)該被視為安全組件。這種安全組件的例子可能包括監(jiān)測水壓的系統(tǒng)或云計(jì)算中心的火災(zāi)警報(bào)控制系統(tǒng)。(35)在教育領(lǐng)域部署人工智能系統(tǒng)非常重要,可以幫助整個(gè)教育系統(tǒng)現(xiàn)代化,提高教育質(zhì)量,包括離線和在線教育,并加速數(shù)字教育,從而也使其為更多人所接受。用于教育或職業(yè)培訓(xùn)的人工智能系統(tǒng),特別是用于確定入學(xué)機(jī)會或?qū)逃吐殬I(yè)培訓(xùn)機(jī)構(gòu)錄取或分配人員的決定產(chǎn)生實(shí)質(zhì)性影響,或作為教育的一部分或前提條件對人員進(jìn)行測試評估,或評估個(gè)人的適當(dāng)教育水平并對個(gè)人將獲得或能夠獲得的教育和培訓(xùn)水平產(chǎn)生實(shí)質(zhì)性影響,或在測試期間監(jiān)測和檢測學(xué)生的違禁行為,應(yīng)被列為高風(fēng)險(xiǎn)人工智能系統(tǒng),因?yàn)樗鼈兛赡軟Q定一個(gè)人的教育和專業(yè)課程,從而影響其保障其生計(jì)的能力。如果設(shè)計(jì)和使用不當(dāng),這類系統(tǒng)可能特別具有侵入性,并可能侵犯受教育和培訓(xùn)的權(quán)利以及不受歧視的權(quán)利,并使歷史上的歧視模式長期存在,例如對婦女、某些年齡組、殘疾人或某些種族或民族血統(tǒng)或性取向的人。(36)用于就業(yè)、工人管理和獲得自營職業(yè)的人工智能系統(tǒng),特別是用于招聘和選拔人員,做出做出決定或?qū)?、晉升和終止的決定產(chǎn)生實(shí)質(zhì)性影響,以及根據(jù)個(gè)人行為、個(gè)人特征或生物識別數(shù)據(jù)進(jìn)行個(gè)性化的任務(wù)分配,監(jiān)測或評價(jià)與工作有關(guān)的合同關(guān)系中的人員,也應(yīng)被列為高風(fēng)險(xiǎn),因?yàn)檫@些系統(tǒng)可能明顯影響未來的職業(yè)前景、這些人的生計(jì)和工人的權(quán)利。相關(guān)的工作合同關(guān)系應(yīng)切實(shí)涉及雇員和通過委員會2021年工作方案中提到的平臺提供服務(wù)的人。在整個(gè)招聘過程中,以及在評估、晉升或保留與工作有關(guān)的合同關(guān)系中,這種制度可能會延續(xù)歷史上的歧視模式,例如對婦女、某些年齡組、殘疾人、或某些種族或民族血統(tǒng)或性取向的人。用于監(jiān)測這些人的表現(xiàn)和行為的人工智能系統(tǒng)也可能破壞他們的基本影響其數(shù)據(jù)保護(hù)和隱私權(quán)的本質(zhì)。本條例的適用不影響歐盟和成員國為在就業(yè)方面使用人工智能系統(tǒng)規(guī)定更具體規(guī)則的權(quán)限。(37)使用人工智能系統(tǒng)值得特別考慮的另一個(gè)領(lǐng)域是獲得和享受某些基本的私人和公共服務(wù),包括醫(yī)療保健服務(wù),以及基本服務(wù),包括但不限于住房、電力、供暖/制冷和互聯(lián)網(wǎng),以及人們充分參與社會或提高個(gè)人生活水平所需的福利。特別是,用于評估自然人的信用分?jǐn)?shù)或信用度的人工智能系統(tǒng)應(yīng)被列為高風(fēng)險(xiǎn)人工智能系統(tǒng),因?yàn)樗鼈儧Q定了這些人獲得金融資源或基本服務(wù),如住房、電力和電信服務(wù)。用于此目的的人工智能系統(tǒng)可能會導(dǎo)致對個(gè)人或群體的歧視,并使歷史上的歧視模式永久化,例如基于種族或民族血統(tǒng)、性別、殘疾、年齡、性取向的歧視,或創(chuàng)造新形式的歧視性影響。然而,歐盟法律所預(yù)見的用于檢測提供金融服務(wù)中的欺詐行為的人工智能系統(tǒng)不應(yīng)視為本條例規(guī)定的高風(fēng)險(xiǎn)。申請或接受公共當(dāng)局提供的公共援助福利和服務(wù)的自然人,包括醫(yī)療保健服務(wù)和基本服務(wù),包括但不限于住房、電力、供暖/制冷和互聯(lián)網(wǎng),通常依賴這些福利和服務(wù),并且相對于主管當(dāng)局處于弱勢地位。如果人工智能系統(tǒng)被用來決定當(dāng)局是否應(yīng)該拒絕、減少、撤銷或收回這些福利和服務(wù),它們可能會對人們的生計(jì)產(chǎn)生重大影響,并可能侵犯他們的基本權(quán)利,如社會保護(hù)、非歧視、人類尊嚴(yán)或有效補(bǔ)救的權(quán)利。同樣,旨在用于對自然人的健康和人壽保險(xiǎn)資格做出決定或產(chǎn)生實(shí)質(zhì)性影響的人工智能系統(tǒng)也可能對人的生計(jì)產(chǎn)生重大影響,并可能侵犯他們的基本權(quán)利,如限制獲得醫(yī)療保健的機(jī)會或使基于個(gè)人特征的歧視永久化。因此,這些制度應(yīng)被列為高風(fēng)險(xiǎn)。盡管如此,本條例不應(yīng)妨礙公共行政部門開發(fā)和使用創(chuàng)新方法,只要這些系統(tǒng)不對法人和自然人造成高風(fēng)險(xiǎn),公共行政部門就會從更廣泛地使用合規(guī)和安全的人工智能系統(tǒng)中受益。最后,用于對自然人的緊急呼叫進(jìn)行評估和分類的人工智能系統(tǒng),或用于調(diào)度或確定緊急第一反應(yīng)服務(wù)的優(yōu)先次序的人工智能系統(tǒng)也應(yīng)被列為高風(fēng)險(xiǎn),因?yàn)樗鼈冊诜浅jP(guān)鍵的情況下對人的生命和健康及其財(cái)產(chǎn)做出決定。(37a)鑒于警察和司法當(dāng)局的作用和責(zé)任,以及他們?yōu)轭A(yù)防、調(diào)查、偵查或起訴刑事犯罪或執(zhí)行刑事處罰而做出的決定的影響,人工智能在執(zhí)法中的一些具體使用情況必須被列為高風(fēng)險(xiǎn),特別是有可能嚴(yán)重影響個(gè)人生命或基本權(quán)利的情況。(38)執(zhí)法當(dāng)局涉及人工智能系統(tǒng)某些用途的行動,其特點(diǎn)是權(quán)力嚴(yán)重失衡,可能導(dǎo)致監(jiān)視、逮捕或剝奪自然人的自由,以及對《憲章》所保障的基本權(quán)利產(chǎn)生其他不利影響。特別是,如果人工智能系統(tǒng)沒有經(jīng)過高質(zhì)量的數(shù)據(jù)訓(xùn)練,在性能、準(zhǔn)確性或穩(wěn)健性方面沒有達(dá)到足夠的要求,或者在投入市場或以其他方式投入使用之前沒有經(jīng)過適當(dāng)?shù)脑O(shè)計(jì)和測試,它可能會以歧視性或其他不正確或不公正的方式將人們排除在外。此外,行使重要的程序性基本權(quán)利,如獲得有效補(bǔ)救和公平審判的權(quán)利以及辯護(hù)權(quán)和無罪推定的權(quán)利,可能會受到阻礙,特別是在這種人工智能系統(tǒng)沒有足夠的透明度、可解釋和記錄的情況下。因此,將一些打算用于執(zhí)法的人工智能系統(tǒng)列為高風(fēng)險(xiǎn)是適當(dāng)?shù)模谶@種情況下,準(zhǔn)確性、可靠性和透明度對避免不利影響、保持公眾信任、確保問責(zé)制和有效的紓解措施尤為重要。鑒于有關(guān)活動的性質(zhì)和相關(guān)風(fēng)險(xiǎn),這些高風(fēng)險(xiǎn)人工智能系統(tǒng)應(yīng)特別包括打算由執(zhí)法當(dāng)局或代表執(zhí)法當(dāng)局或由支持執(zhí)法當(dāng)局的歐盟機(jī)構(gòu)、辦事處或機(jī)構(gòu)使用的人工智能系統(tǒng),作為測謊儀和類似工具,只要其使用是在相關(guān)歐盟和國家法律允許的范圍內(nèi),用于評估刑事訴訟中證據(jù)的可靠性,在偵查、調(diào)查或起訴刑事犯罪過程中進(jìn)行特征分析,以及用于對自然人的犯罪分析。專門用于稅務(wù)和海關(guān)部門行政程序的人工智能系統(tǒng)不應(yīng)歸入執(zhí)法部門為預(yù)防、偵查、調(diào)查和起訴刑事犯罪而使用的高風(fēng)險(xiǎn)人工智能系統(tǒng)。執(zhí)法和司法當(dāng)局對人工智能工具的使用不應(yīng)成為不平等、社會分裂或排斥的一個(gè)因素。不應(yīng)忽視使用人工智能工具對嫌疑人辯護(hù)權(quán)的影響,特別是難以獲得關(guān)于其功能的有意義的信息,以及因此難以在法庭上質(zhì)疑其結(jié)果,尤其是被調(diào)查的個(gè)人。(39)移民、庇護(hù)和邊境管制管理中使用的人工智能系統(tǒng)影響到那些往往處于特別脆弱地位的人,他們依賴于主管公共當(dāng)局的行動結(jié)果。因此,在這些情況下使用的人工智能系統(tǒng)的準(zhǔn)確性、非歧視性和透明度對于保證尊重受影響者的基本權(quán)利特別重要,特別是他們享有自由流動、非歧視、保護(hù)私人生活和個(gè)人數(shù)據(jù)、國際保護(hù)和良好管理的權(quán)利。因此,將擬由主管公共當(dāng)局或代表主管公共當(dāng)局或負(fù)責(zé)移民、庇護(hù)和邊境管制管理領(lǐng)域任務(wù)的歐盟機(jī)構(gòu)、辦事處或機(jī)構(gòu)使用的測謊儀和類似工具列為高風(fēng)險(xiǎn)人工智能系統(tǒng)是適當(dāng)?shù)?,只要相關(guān)歐盟和國家法律允許其使用,以評估進(jìn)入成員國領(lǐng)土或申請簽證或庇護(hù)的自然人所帶來的某些風(fēng)險(xiǎn);以核實(shí)自然人相關(guān)文件的真實(shí)性;協(xié)助公共主管部門審查和評估與庇護(hù)、簽證和居留證申請及相關(guān)投訴有關(guān)的證據(jù)的真實(shí)性,以確定申請身份的自然人的資格;在邊境管理活動中監(jiān)測、調(diào)查或處理個(gè)人數(shù)據(jù),以檢測、識別或確認(rèn)自然人;預(yù)測或預(yù)報(bào)與移民流動和過境有關(guān)的趨勢。本條例所涵蓋的移民、庇護(hù)和邊境控制管理領(lǐng)域的人工智能系統(tǒng)應(yīng)遵守歐洲議會和理事會第2013/32/EU號指令[13]、歐洲議會和理事會第810/2009號條例(EC)以及其他相關(guān)立法規(guī)定的相關(guān)程序[14]。成員國或歐盟機(jī)構(gòu)、機(jī)關(guān)或團(tuán)體在任何情況下都不應(yīng)將人工智能系統(tǒng)用于規(guī)避其在經(jīng)1967年1月31日議定書修正的1951年7月28日《關(guān)于難民地位的公約》下的國際義務(wù),也不應(yīng)以任何方式侵犯不驅(qū)回原則,或剝奪進(jìn)入歐盟領(lǐng)土的安全和有效法律途徑,包括獲得國際保護(hù)的權(quán)利。(40)考慮到某些打算用于司法和民主進(jìn)程的人工智能系統(tǒng)可能對民主、法治、個(gè)人自由以及獲得有效補(bǔ)救和公平審判的權(quán)利產(chǎn)生重大影響,應(yīng)將其列為高風(fēng)險(xiǎn)。特別是,為了解決潛在的偏見、錯(cuò)誤和不透明的風(fēng)險(xiǎn),宜將打算由司法當(dāng)局或行政機(jī)構(gòu)使用或代表它們使用的人工智能系統(tǒng)定性為高風(fēng)險(xiǎn),以協(xié)助司法當(dāng)局或行政機(jī)構(gòu)研究和解釋事實(shí)和法律,并將法律適用于一套具體的事實(shí),或以類似方式用于替代性爭端解決。人工智能工具的使用可以支持,但不應(yīng)該取代法官的決策權(quán)或司法獨(dú)立,因?yàn)樽罱K的決策必須仍然是人類驅(qū)動的活動和決定。然而,這種限定不應(yīng)擴(kuò)大到用于不影響個(gè)別案件實(shí)際司法的純輔助性行政活動的人工智能系統(tǒng),如司法決定、文件或數(shù)據(jù)的匿名化或假名化、工作溝通、行政任務(wù)或資源分配。(40a)為了解決對《憲章》第39條規(guī)定的投票權(quán)進(jìn)行不當(dāng)外部干預(yù)的風(fēng)險(xiǎn),以及對民主進(jìn)程、民主和法治產(chǎn)生不成比例的影響的風(fēng)險(xiǎn),打算用來影響選舉或公投結(jié)果或自然人在選舉或公投中行使投票權(quán)的投票行為的人工智能系統(tǒng)應(yīng)被列為高風(fēng)險(xiǎn)人工智能系統(tǒng)。但自然人不直接接觸其產(chǎn)出的人工智能系統(tǒng)除外,如用于從行政和后勤的角度組織、優(yōu)化和構(gòu)建政治運(yùn)動的工具。(40B)考慮到使用被指定為超大型網(wǎng)絡(luò)平臺的社交媒體平臺所提供的服務(wù)的自然人的規(guī)模,這些在線平臺的使用方式對在線安全、公眾意見和言論的形成、選舉和民主進(jìn)程以及社會關(guān)切具有強(qiáng)影響力。因此,這些網(wǎng)絡(luò)平臺在其推薦系統(tǒng)中使用的人工智能系統(tǒng)應(yīng)受本條例約束,以確保人工智能系統(tǒng)符合本條例規(guī)定的要求,包括關(guān)于數(shù)據(jù)治理、技術(shù)文件和可追溯性、透明度、人工監(jiān)督、準(zhǔn)確性和穩(wěn)健性的技術(shù)要求。遵守本條例應(yīng)能使這些超大型網(wǎng)絡(luò)平臺遵守歐盟2022/2065號條例第34條和35條中更廣泛的風(fēng)險(xiǎn)評估和風(fēng)險(xiǎn)緩解義務(wù)。本條例中的義務(wù)不影響(歐盟)2022/2065號條例,并應(yīng)補(bǔ)充(歐盟)2022/2065號條例所要求的義務(wù),當(dāng)社交媒體平臺被指定為超大型網(wǎng)絡(luò)平臺。鑒于被指定為超大型網(wǎng)絡(luò)平臺的社交媒體平臺在歐洲范圍內(nèi)的影響,根據(jù)(歐盟)2022/2065號條例指定的機(jī)構(gòu)應(yīng)作為執(zhí)行本規(guī)定的執(zhí)法機(jī)構(gòu)。(41)某人工智能系統(tǒng)根據(jù)本條例被歸類為高風(fēng)險(xiǎn)人工智能系統(tǒng)的事實(shí),不應(yīng)解釋為表明根據(jù)歐盟法律的其他法案或與歐盟法律兼容的國家法律,如關(guān)于保護(hù)個(gè)人數(shù)據(jù)的法律,該系統(tǒng)的使用必然是合法的或非法的,任何使用應(yīng)繼續(xù)完全按照憲章和歐盟二級法律和國家法律的適用法案產(chǎn)生的適用要求進(jìn)行。(41a)歐洲、國家和國際層面的一些具有法律約束力的規(guī)則已經(jīng)適用于或與今天的人工智能系統(tǒng)有關(guān),包括但不限于歐盟的主要法律(歐洲歐盟條約及其基本權(quán)利憲章),歐盟的次要法律(如《一般數(shù)據(jù)保護(hù)條例》、《產(chǎn)品責(zé)任指令》、《非個(gè)人數(shù)據(jù)自由流動條例》、反歧視指令、消費(fèi)者法和工作安全與健康指令)、聯(lián)合國人權(quán)條約和歐洲委員會公約(如《歐洲人權(quán)公約》)以及眾多歐盟成員國法律。除了橫向適用的規(guī)則外,還有各種特定領(lǐng)域的規(guī)則,適用于特定的人工智能應(yīng)用(例如醫(yī)療部門的醫(yī)療設(shè)備條例)。[1]歐洲理事會,歐洲理事會特別會議(2020年10月1日和2日)-結(jié)論,EUCO13/20,2020,第6頁。[2]歐洲議會2020年10月20日決議,就人工智能、機(jī)器人和相關(guān)技術(shù)的倫理問題框架向委員會提出建議,2020/2012(INL)。[3]歐洲議會和理事會2008年3月11日關(guān)于民用航空安全領(lǐng)域的共同規(guī)則和廢除第2320/2002號條例的第300/2008號條例(OJL97,9.4.2008,第72頁)。[4]歐洲議會和理事會2013年2月5日關(guān)于農(nóng)業(yè)和林業(yè)車輛的批準(zhǔn)和市場監(jiān)督的第167/2013號條例(OJL60,2.3.2013,第1頁)。[5]歐洲議會和理事會2013年1月15日關(guān)于兩輪或三輪車和四輪車的批準(zhǔn)和市場監(jiān)督的第168/2013號條例(OJL60,2.3.2013,第52頁)。[6]歐洲議會和理事會2014年7月23日關(guān)于海洋設(shè)備和廢除理事會指令96/98/EC的指令2014/90/EU(OJL257,28.8.2014,p.146)。[7]歐洲議會和理事會2016年5月11日關(guān)于歐盟內(nèi)部鐵路系統(tǒng)互操作性的指令(EU)2016/797(OJL138,26.5.2016,p.44)。[8]歐洲議會和理事會2018年5月30日關(guān)于機(jī)動車及其掛車以及用于此類車輛的系統(tǒng)、部件和獨(dú)立技術(shù)單元的批準(zhǔn)和市場監(jiān)督的條例(EU)2018/858,修訂條例(EC)No715/2007和(EC)No595/2009并廢除指令2007/46/EC(OJL151,14.6.2018,第1頁)。[9]2018年7月4日歐洲議會和理事會關(guān)于民用航空領(lǐng)域共同規(guī)則和建立歐盟航空安全局的(EU)2018/1139號條例,并修訂(EC)No2111/2005、(EC)No1008/2008、(EU)No996/2010條例、(EU)No376/2014以及歐洲議會和理事會第2014/30/EU和2014/53/EU號指令,并廢除歐洲議會和理事會第(EC)No552/2004和(EC)No216/2008條例以及理事會第(EEC)No3922/91條例(OJL212,22.8.2018,p.1).[10]歐洲議會和理事會2019年11月27日第(EU)2019/2144號條例,關(guān)于機(jī)動車及其掛車,以及用于此類車輛的系統(tǒng)、部件和獨(dú)立技術(shù)單元的一般安全和對車內(nèi)人員及弱勢道路使用者的保護(hù)要求,修訂歐洲議會和理事會第(EU)2018/858號條例,廢除(EC)78/2009號條例、(EC)No79/2009和(EC)No661/2009的歐洲議會和理事會條例以及委員會條例(EC)No631/2009、(EU)No406/2010、(EU)No672/2010、(EU)No1003/2010、(EU)No1005/2010、(EU)No1008/2010,(EU)No1009/2010,(EU)No19/2011,(EU)No109/2011,(EU)No458/2011,(EU)No65/2012,(EU)No130/2012,(EU)No347/2012,(EU)No351/2012,(EU)No1230/2012and(EU)2015/166(OJL325,16.12.2019,p.1).[11]歐洲議會和理事會2017年4月5日關(guān)于醫(yī)療器械的(EU)2017/745號條例,修訂了2001/83/EC號指令、(EC)178/2002號條例和(EC)1223/2009號條例,廢除了理事會90/385/EEC和93/42/EEC號指令(OJL117,5.5.2017,第1頁)。[12]歐洲議會和理事會2017年4月5日關(guān)于體外診斷醫(yī)療器械的條例(EU)2017/746,廢除指令98/79/EC和委員會決定2010/227/EU(OJL117,5.5.2017,p.176)。(42)為了減輕在歐盟市場上投放或以其他方式投入使用的高風(fēng)險(xiǎn)人工智能系統(tǒng)給部署者和受影響者帶來的風(fēng)險(xiǎn),應(yīng)適用某些強(qiáng)制性要求,同時(shí)考慮到預(yù)期目的、系統(tǒng)的可合理預(yù)見的濫用情況,并根據(jù)供應(yīng)者建立的風(fēng)險(xiǎn)管理系統(tǒng)。這些要求應(yīng)該是客觀的、符合目的的、合理的和有效的,不會給運(yùn)營商增加不必要的監(jiān)管負(fù)擔(dān)或成本。(43)根據(jù)涉及所使用的數(shù)據(jù)集的質(zhì)量和相關(guān)性,技術(shù)文件和記錄保存,透明度以及向部署者提供信息、人力監(jiān)督,以及穩(wěn)健性、準(zhǔn)確性和網(wǎng)絡(luò)安全,對高風(fēng)險(xiǎn)人工智能系統(tǒng)適用要求。這些要求對于有效紓解健康、安全和基本權(quán)利以及環(huán)境、民主和法治方面的風(fēng)險(xiǎn)是必要的,根據(jù)該系統(tǒng)的預(yù)期目的或可合理預(yù)見的濫用情況而適用,并且沒有其他較少限制貿(mào)易的措施可以合理地利用,從而避免對貿(mào)易造成不合理的限制。(44)獲得高質(zhì)量的數(shù)據(jù)在提供結(jié)構(gòu)和確保許多人工智能系統(tǒng)的性能方面起著至關(guān)重要的作用,特別是在使用涉及模型訓(xùn)練的技術(shù)時(shí),以期確保高風(fēng)險(xiǎn)的人工智能系統(tǒng)按預(yù)期安全地運(yùn)行,不會成為歐盟法律禁止的歧視源。高質(zhì)量的訓(xùn)練、驗(yàn)證和測試數(shù)據(jù)集需要實(shí)施適當(dāng)?shù)臄?shù)據(jù)治理和管理做法。訓(xùn)練、驗(yàn)證和測試數(shù)據(jù)集(如適用),包括標(biāo)簽,應(yīng)該有足夠的相關(guān)性、代表性、適當(dāng)?shù)腻e(cuò)誤審查,以及考慮到系統(tǒng)的預(yù)期目的,盡可能完整。它們還應(yīng)該具有適當(dāng)?shù)慕y(tǒng)計(jì)特性,包括與高風(fēng)險(xiǎn)人工智能系統(tǒng)打算使用的人或群體有關(guān)的統(tǒng)計(jì)特性,特別注意減少數(shù)據(jù)集中可能存在的偏見,因?yàn)檫@些偏見可能導(dǎo)致對基本權(quán)利的風(fēng)險(xiǎn)或?qū)κ芨唢L(fēng)險(xiǎn)人工智能系統(tǒng)影響的人的歧視性結(jié)果。例如,偏見可能是基礎(chǔ)數(shù)據(jù)集中所固有的,特別是在使用歷史數(shù)據(jù)時(shí),由算法的開發(fā)者引入,或在現(xiàn)實(shí)世界環(huán)境中實(shí)施系統(tǒng)時(shí)產(chǎn)生。人工智能系統(tǒng)提供的結(jié)果受到這種固有偏見的影響,這種偏見傾向于逐漸增加,從而延續(xù)和擴(kuò)大現(xiàn)有的歧視,特別是對屬于某些弱勢群體或族裔群體,或種族化社區(qū)的人。特別是,訓(xùn)練、驗(yàn)證和測試數(shù)據(jù)集應(yīng)在其預(yù)期目的所要求的范圍內(nèi),考慮到人工智能系統(tǒng)打算在其中使用的特定地理、背景、行為或功能環(huán)境或背景所特有的特點(diǎn)、特征或要素。為了保護(hù)他人免受人工智能系統(tǒng)中的偏見可能導(dǎo)致的歧視的權(quán)利,供應(yīng)者應(yīng)在例外情況下,在適用本條例和條例(歐盟)2016/679、指令2016/680和條例(歐盟)2018/1725規(guī)定的所有適用條件后,作為重大公共利益問題,也能夠處理特殊類別的個(gè)人數(shù)據(jù),以確保與高風(fēng)險(xiǎn)人工智能系統(tǒng)有關(guān)的負(fù)面偏見的檢測和糾正。負(fù)面偏見應(yīng)理解為對自然人造成直接或間接歧視性影響的偏見。與數(shù)據(jù)治理有關(guān)的要求可以通過求助于提供認(rèn)證合規(guī)服務(wù)的第三方來遵守,包括驗(yàn)證數(shù)據(jù)治理、數(shù)據(jù)集完整性以及數(shù)據(jù)訓(xùn)練、驗(yàn)證和測試做法。(45)對于高風(fēng)險(xiǎn)人工智能系統(tǒng)的開發(fā)和評估,某些行為者,如供應(yīng)者、通知機(jī)構(gòu)和其他相關(guān)實(shí)體,如數(shù)字創(chuàng)新中心、測試實(shí)驗(yàn)設(shè)施和研究人員,應(yīng)能在其各自的活動領(lǐng)域內(nèi)獲取和使用與本條例有關(guān)的高質(zhì)量數(shù)據(jù)集。委員會建立的歐洲共同數(shù)據(jù)空間以及促進(jìn)企業(yè)之間和與政府之間的公共利益的數(shù)據(jù)共享,將有助于為人工智能系統(tǒng)的訓(xùn)練、驗(yàn)證和測試提供可信的、可問責(zé)的和非歧視性的高質(zhì)量數(shù)據(jù)訪問。例如,在健康領(lǐng)域,歐洲健康數(shù)據(jù)空間將促進(jìn)以保護(hù)隱私、安全、及時(shí)、透明和可信的方式,在適當(dāng)?shù)臋C(jī)構(gòu)治理下,非歧視性地獲取健康數(shù)據(jù)和在這些數(shù)據(jù)集上訓(xùn)練人工智能算法。提供或支持獲取數(shù)據(jù)的相關(guān)主管部門,包括部門主管部門,也可以支持為人工智能系統(tǒng)的訓(xùn)練、驗(yàn)證和測試提供高質(zhì)量數(shù)據(jù)。(45a)在人工智能系統(tǒng)的整個(gè)生命周期中,必須保證隱私權(quán)和保護(hù)個(gè)人數(shù)據(jù)的權(quán)利。在這方面,當(dāng)數(shù)據(jù)處理涉及個(gè)人基本權(quán)利的重大風(fēng)險(xiǎn)時(shí),歐盟數(shù)據(jù)保護(hù)法中規(guī)定的數(shù)據(jù)最小化和數(shù)據(jù)保護(hù)的設(shè)計(jì)和默認(rèn)原則是至關(guān)重要的。人工智能系統(tǒng)的提供者和使用者應(yīng)實(shí)施行業(yè)先進(jìn)實(shí)踐的的技術(shù)和組織措施,以保護(hù)這些權(quán)利。這些措施不僅應(yīng)包括匿名化和加密,而且應(yīng)使用越發(fā)可用的數(shù)據(jù)不動模型動的技術(shù),并允許在各方之間不傳輸或者不必要地復(fù)制原始數(shù)據(jù)或結(jié)構(gòu)化數(shù)據(jù)本身的前提下,得出有價(jià)值的洞察。(46)擁有關(guān)于高風(fēng)險(xiǎn)人工智能系統(tǒng)是如何開發(fā)的以及它們在整個(gè)生命周期內(nèi)的表現(xiàn)的可理解的信息,對于核實(shí)是否符合本條例的要求至關(guān)重要。這就要求保持記錄并提供技術(shù)文件,其中包含評估人工智能系統(tǒng)是否符合相關(guān)要求的必要信息。這些信息應(yīng)包括系統(tǒng)的一般特征、能力和局限性、算法、數(shù)據(jù)、訓(xùn)練、測試和所使用的驗(yàn)證過程,以及有關(guān)風(fēng)險(xiǎn)管理系統(tǒng)的文件。在人工智能系統(tǒng)的整個(gè)生命周期中,技術(shù)文件應(yīng)適當(dāng)?shù)乇3指隆H斯ぶ悄芟到y(tǒng)在其生命周期內(nèi)會對環(huán)境產(chǎn)生很大的重要影響,并有很高的能源消耗。為了更好地理解人工智能系統(tǒng)對環(huán)境的影響,供應(yīng)者起草的技術(shù)文件應(yīng)包括人工智能系統(tǒng)的能源消耗信息,包括開發(fā)期間的消耗和使用期間的預(yù)期消耗。這些信息應(yīng)考慮到相關(guān)的歐盟和國家立法。這種報(bào)告的信息應(yīng)該是可理解的、可比較的和可核查的,為此,委員會應(yīng)制定關(guān)于計(jì)算和報(bào)告這種信息的統(tǒng)一方法的指導(dǎo)方針。為確保只有單一文件的可能性,與所需文件相關(guān)的術(shù)語和定義以及相關(guān)歐盟立法中的任何所需文件應(yīng)盡可能地保持一致。(46a)人工智能系統(tǒng)應(yīng)考慮到最先進(jìn)的方法和相關(guān)的適用標(biāo)準(zhǔn),以減少能源使用、資源使用和浪費(fèi),并提高其能源效率和系統(tǒng)的整體效率。就本條例而言,人工智能系統(tǒng)的環(huán)境方面是指人工智能系統(tǒng)在開發(fā)、訓(xùn)練和部署階段的能源消耗,以及記錄和報(bào)告及儲存這些數(shù)據(jù)的過程。人工智能系統(tǒng)的設(shè)計(jì)應(yīng)能在開發(fā)、訓(xùn)練和部署的每個(gè)階段對能源和資源的消耗進(jìn)行測量和記錄。對人工智能系統(tǒng)排放的監(jiān)測和報(bào)告必須是強(qiáng)大、透明、一致和準(zhǔn)確的。為了確保本條例的統(tǒng)一應(yīng)用和單一市場中供應(yīng)者和部署者的穩(wěn)定的法律生態(tài)系統(tǒng),委員會應(yīng)制定方法的共同規(guī)范,以滿足開發(fā)、訓(xùn)練和部署期間能源和資源消耗的報(bào)告和記錄要求。這種關(guān)于測量方法的共同規(guī)范可以確定一個(gè)基線,在進(jìn)行考慮到現(xiàn)有立法的影響評估后,委員會可以更好地決定未來是否需要監(jiān)管干預(yù);(46B)為了實(shí)現(xiàn)本條例的目標(biāo),并在確保內(nèi)部市場順利運(yùn)作的同時(shí),為歐盟的環(huán)境目標(biāo)做出貢獻(xiàn),可能有必要制定建議和準(zhǔn)則,并最終建立可持續(xù)性的目標(biāo)。為此,委員會有權(quán)制定一種方法,以促進(jìn)具備關(guān)鍵績效指標(biāo)(KPI)和可持續(xù)發(fā)展目標(biāo)(SDGs)的參考體系。首先,目標(biāo)應(yīng)該是使人工智能的實(shí)施選擇之間能夠進(jìn)行公平的比較,為促進(jìn)使用更有效的人工智能技術(shù)解決能源和資源問題提供激勵(lì)。為實(shí)現(xiàn)這一目標(biāo),本條例應(yīng)提供一種手段,以建立開發(fā)、訓(xùn)練和部署排放量的數(shù)據(jù)收集基線。(53)被定義為提供者的特定自然人或法人對高風(fēng)險(xiǎn)人工智能系統(tǒng)的投放市場或投入使用負(fù)責(zé)是合適的,無論該自然人或法人是否是設(shè)計(jì)或開發(fā)該系統(tǒng)的人。(53a)作為《聯(lián)合國殘疾人權(quán)利公約》的簽署國,歐盟和所有成員國在法律上有義務(wù)保護(hù)殘疾人免受歧視并促進(jìn)他們的平等,確保殘疾人在與其他人平等的基礎(chǔ)上獲得信息和通信技術(shù)及系統(tǒng),并確保尊重殘疾人的隱私。鑒于人工智能系統(tǒng)的重要性和使用日益增加,對所有新技術(shù)和服務(wù)適用通用設(shè)計(jì)原則,應(yīng)確??赡苁苋斯ぶ悄芗夹g(shù)影響或使用人工智能技術(shù)的每個(gè)人,包括殘疾人,都能充分、平等、不受限制地使用,并充分考慮到他們固有的尊嚴(yán)和多樣性。因此,供應(yīng)者必須確保完全遵守?zé)o障礙要求,包括歐洲議會和理事會的第2019/882號指令和第2016/2102號指令。提供者應(yīng)確保在設(shè)計(jì)上遵守這些要求。因此,必要的措施應(yīng)盡可能地納入高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)中。(54)提供者應(yīng)建立一個(gè)健全的質(zhì)量管理體系,確保完成規(guī)定的合格評估程序,起草相關(guān)文件,并建立一個(gè)強(qiáng)有力的上市后監(jiān)測系統(tǒng)。對于已經(jīng)建立了基于ISO9001等標(biāo)準(zhǔn)或其他相關(guān)標(biāo)準(zhǔn)的質(zhì)量管理體系的提供者,不應(yīng)一味重復(fù)質(zhì)量管理體系,而應(yīng)將其現(xiàn)有體系調(diào)整到與遵守本條例的具體要求有關(guān)的某些方面。這也應(yīng)反映在未來的標(biāo)準(zhǔn)化活動或委員會在這方面通過的指導(dǎo)意見中。將高風(fēng)險(xiǎn)人工智能系統(tǒng)投入使用的公共機(jī)構(gòu)可酌情采用和實(shí)施質(zhì)量管理系統(tǒng)的規(guī)則,作為在國家或地區(qū)一級采用的質(zhì)量管理系統(tǒng)的一部分,同時(shí)考慮到該部門的具體情況以及有關(guān)公共機(jī)構(gòu)的權(quán)限和組織。(55)如果作為相關(guān)新立法框架部門立法所涵蓋的產(chǎn)品的安全組件的高風(fēng)險(xiǎn)人工智能系統(tǒng)沒有獨(dú)立于該產(chǎn)品投放市場或投入使用,相關(guān)新立法框架立法所定義的最終產(chǎn)品的制造商應(yīng)遵守本條例規(guī)定的提供者的義務(wù),特別是確保嵌入最終產(chǎn)品的人工智能系統(tǒng)符合本條例的要求。(56)為了能夠執(zhí)行本條例并為經(jīng)營者創(chuàng)造一個(gè)公平的競爭環(huán)境,并考慮到提供數(shù)字產(chǎn)品的不同形式,必須確保在任何情況下,在歐盟設(shè)立的人能夠向當(dāng)局提供關(guān)于人工智能系統(tǒng)合規(guī)性的所有必要信息。因此,在向歐盟提供其人工智能系統(tǒng)之前,在歐盟以外設(shè)立的供應(yīng)者應(yīng)通過書面授權(quán),指定一名在歐盟設(shè)立的授權(quán)代表。(57)根據(jù)新的立法框架原則,應(yīng)該為相關(guān)的經(jīng)濟(jì)經(jīng)營者,如進(jìn)口者和分發(fā)者,設(shè)定具體的義務(wù),以確保法律的確定性,并促進(jìn)這些相關(guān)經(jīng)營者遵守監(jiān)管規(guī)定。(58)鑒于人工智能系統(tǒng)的性質(zhì)以及使用這些系統(tǒng)可能帶來的安全和基本權(quán)利方面的風(fēng)險(xiǎn),包括需要確保適當(dāng)監(jiān)測人工智能系統(tǒng)在現(xiàn)實(shí)生活中的表現(xiàn),為部署者規(guī)定具體責(zé)任是適當(dāng)?shù)?。部署者?yīng)特別按照使用說明使用高風(fēng)險(xiǎn)的人工智能系統(tǒng),并應(yīng)酌情規(guī)定某些其他義務(wù),以監(jiān)測人工智能系統(tǒng)的運(yùn)作和保存記錄。(58a)雖然與人工智能系統(tǒng)有關(guān)的風(fēng)險(xiǎn)可能來自這種系統(tǒng)的設(shè)計(jì)方式,但風(fēng)險(xiǎn)也可能來自這種人工智能系統(tǒng)的使用方式。因此,高風(fēng)險(xiǎn)人工智能系統(tǒng)的部署者在確?;緳?quán)利得到保護(hù)方面發(fā)揮了關(guān)鍵作用,在提供者在開發(fā)人工智能系統(tǒng)時(shí)的義務(wù)以外予以補(bǔ)充。部署者最了解高風(fēng)險(xiǎn)人工智能系統(tǒng)將如何被具體使用,因此可以識別在開發(fā)階段沒有預(yù)見的潛在重大風(fēng)險(xiǎn),因?yàn)樗麄儗κ褂铆h(huán)境、可能受影響的人或群體,包括邊緣化和弱勢群體有更精確的了解。部署者應(yīng)在具體的使用環(huán)境中確定適當(dāng)?shù)闹卫斫Y(jié)構(gòu),如人的監(jiān)督安排、投訴程序和補(bǔ)救程序,因?yàn)橹卫斫Y(jié)構(gòu)的選擇可以在具體的使用案例中有助于減少對基本權(quán)利的風(fēng)險(xiǎn)。為了有效確?;緳?quán)利得到保護(hù),高風(fēng)險(xiǎn)人工智能系統(tǒng)的部署者應(yīng)在投入使用前進(jìn)行基本權(quán)利影響評估。在進(jìn)行影響評估的同時(shí),應(yīng)該有一個(gè)詳細(xì)的計(jì)劃,描述有助于減輕對基本權(quán)利的風(fēng)險(xiǎn)的措施或工具,這些措施或工具最遲應(yīng)在投入使用時(shí)確定。如果不能確定這樣的計(jì)劃,部署者應(yīng)避免將該系統(tǒng)投入使用。在進(jìn)行這種影響評估時(shí),部署者應(yīng)通知國家監(jiān)督機(jī)構(gòu),并盡可能通知相關(guān)的利益攸關(guān)者以及可能受人工智能系統(tǒng)影響的群體代表,以便收集被認(rèn)為是進(jìn)行影響評估所必需的相關(guān)信息,并被鼓勵(lì)在其在線網(wǎng)站上公開其基本權(quán)利影響評估的摘要。這些義務(wù)不應(yīng)適用于中小企業(yè),因?yàn)樗鼈冇捎谌狈Y源,可能難以提供這種咨詢。然而,他們在進(jìn)行基本權(quán)利影響評估時(shí)也應(yīng)努力讓這些代表參與進(jìn)來。此外,鑒于潛在的影響以及民主監(jiān)督和審查的需要,高風(fēng)險(xiǎn)人工智能系統(tǒng)的部署者是公共當(dāng)局或歐盟機(jī)構(gòu)、機(jī)關(guān)、辦事處和機(jī)構(gòu),以及部署者是根據(jù)第2022/1925號條例被指定為守門人的企業(yè),應(yīng)被要求在公共數(shù)據(jù)庫中登記任何高風(fēng)險(xiǎn)人工智能系統(tǒng)的使用。其他部署者可自愿登記。(59)人工智能系統(tǒng)的部署者通常是指授權(quán)人工智能系統(tǒng)運(yùn)行的自然人或法人、公共當(dāng)局、機(jī)構(gòu)或其他機(jī)構(gòu),除非是在個(gè)人非專業(yè)活動中使用。(60)在人工智能價(jià)值鏈中,往往有多個(gè)實(shí)體提供工具和服務(wù),同時(shí)也提供組件或流程,然后由供應(yīng)者納入人工智能系統(tǒng),包括與數(shù)據(jù)收集和預(yù)處理、模型訓(xùn)練、模型再訓(xùn)練、模型測試和評估、整合到軟件或模型開發(fā)的其他方面有關(guān)的組件或流程。所涉及的實(shí)體可以通過接口,如應(yīng)用程序接口(API),直接或間接地提供他們的產(chǎn)品,并在免費(fèi)和開源許可證下分發(fā),但也越來越多地通過人工智能勞動力平臺、訓(xùn)練參數(shù)轉(zhuǎn)售、建立模型DIY套件或提供對模型服務(wù)架構(gòu)的付費(fèi)訪問來開發(fā)和訓(xùn)練模型。鑒于人工智能價(jià)值鏈的這種復(fù)雜性,所有相關(guān)的第三方,特別是那些參與開發(fā)、銷售和商業(yè)供應(yīng)納入人工智能系統(tǒng)的軟件工具、組件、預(yù)訓(xùn)練模型或數(shù)據(jù)的第三方,或網(wǎng)絡(luò)服務(wù)的提供者,應(yīng)在不損害其自身知識產(chǎn)權(quán)或商業(yè)秘密的情況下,提供所需的信息、培訓(xùn)或?qū)I(yè)知識,并酌情與提供者合作,使其能夠控制屬于本條例的人工智能系統(tǒng)的所有與合規(guī)相關(guān)的方面。為了使得人工智能價(jià)值鏈的治理在成本收益上劃算,向供應(yīng)者提供后續(xù)納入其人工智能的工具、服務(wù)、組件或流程的每個(gè)第三方均應(yīng)明確披露控制水平供應(yīng)者。(60a)如果一方處于較強(qiáng)的談判地位,那么在談判使用或整合在高風(fēng)險(xiǎn)人工智能系統(tǒng)中的工具、服務(wù)、部件或流程的供應(yīng)時(shí),或者在談判違反或終止相關(guān)義務(wù)的紓解措施時(shí),該方有可能利用這種地位來損害另一簽約方的利益。這種合同上的不平衡尤其損害了微型、小型和中型企業(yè)以及初創(chuàng)企業(yè),除非它們是由一家能夠適當(dāng)補(bǔ)償分包商的企業(yè)所有或承包,因?yàn)樗鼈儧]有談判合同協(xié)議條件的實(shí)際能力,除了接受“要么接受,要么離開”的合同條款,可能沒有其他選擇。因此,規(guī)范高風(fēng)險(xiǎn)人工智能系統(tǒng)中使用或整合的工具、服務(wù)、部件或流程的供應(yīng),或?qū)`反或終止相關(guān)義務(wù)的補(bǔ)救措施的不公平合同條款單方面地對這些微型、小型或中型企業(yè)和初創(chuàng)企業(yè)強(qiáng)加時(shí),應(yīng)當(dāng)對其沒有約束力。(60B)關(guān)于合同條款的規(guī)則應(yīng)考慮到合同自由的原則,這是企業(yè)與企業(yè)關(guān)系中的一個(gè)基本概念。因此,不是所有的合同條款都應(yīng)該接受有關(guān)其不公平性的測試,只有那些單方面強(qiáng)加給微型、小型和中型企業(yè)以及新創(chuàng)企業(yè)的條款才需要接受這一測試。這涉及到“要么接受,要么離開”的情況,即一方提供某種合同條款,而微型、小型或中型企業(yè)和初創(chuàng)企業(yè)盡管試圖談判,卻無法影響該條款的內(nèi)容。簡單地由一方提供并被微型、小型、中型企業(yè)或初創(chuàng)企業(yè)接受的合同條款,或經(jīng)談判并隨后在合同雙方之間以修正方式達(dá)成的條款,不應(yīng)被視為單方面強(qiáng)加的。(60c)此外,關(guān)于不公平合同條款的規(guī)則只應(yīng)適用于合同中與供應(yīng)用于或集成于高風(fēng)險(xiǎn)人工智能系統(tǒng)的工具、服務(wù)、部件或流程有關(guān)的內(nèi)容,或?qū)`反或終止相關(guān)義務(wù)的補(bǔ)救措施。同一合同的其他部分,如與這些內(nèi)容無關(guān),則不應(yīng)受到本條例規(guī)定的不公平性測試。(60d)確定不公平合同條款的標(biāo)準(zhǔn)只應(yīng)適用于過度的合同條款,即濫用較強(qiáng)的談判地位。絕大多數(shù)在商業(yè)上對一方比另一方更有利的合同條款,包括那些在企業(yè)對企業(yè)合同中正常的條款,是合同自由原則的正常體現(xiàn),不會受到影響。如果一個(gè)合同條款沒有被列入始終被視為不公平的條款清單,則適用一般的不公平條款。在這方面,被列為不公平條款的條款應(yīng)作為解釋一般不公平條款的標(biāo)尺。(60e)基礎(chǔ)模型是新近的發(fā)展成果,其中人工智能模型是由旨在優(yōu)化輸出的通用性和多功能性的算法所開發(fā)。那些模型通常在廣泛的數(shù)據(jù)源和大量的數(shù)據(jù)上進(jìn)行訓(xùn)練,以完成廣泛的下游任務(wù),包括一些沒有專門為其開發(fā)和訓(xùn)練的任務(wù)。這些系統(tǒng)可以是單模態(tài)或多模態(tài)的,通過各種方法,如監(jiān)督學(xué)習(xí)或強(qiáng)化學(xué)習(xí)來訓(xùn)練。具有特定預(yù)期目的的人工智能系統(tǒng)或通用人工智能系統(tǒng)可以是基礎(chǔ)模型的實(shí)施模型,這意味著每個(gè)基礎(chǔ)模型可以在無數(shù)的下游人工智能或通用人工智能系統(tǒng)中重復(fù)使用。這些模型對許多下游的應(yīng)用和系統(tǒng)的意義越來越重要。(60f)如果基礎(chǔ)模型是作為一種服務(wù)提供的,如通過API訪問,與下游供應(yīng)者的合作應(yīng)貫穿該服務(wù)提供和支持的整個(gè)過程,以便能夠適當(dāng)?shù)亟档惋L(fēng)險(xiǎn),除非基礎(chǔ)模型的供應(yīng)者轉(zhuǎn)讓訓(xùn)練模型以及關(guān)于數(shù)據(jù)集和系統(tǒng)開發(fā)過程的廣泛和適當(dāng)?shù)男畔?,或限制服?wù),如API訪問,使下游供應(yīng)者能夠完全遵守本條例,而無需基礎(chǔ)模型的原始供應(yīng)者的進(jìn)一步支持。(60g)鑒于人工智能系統(tǒng)價(jià)值鏈的性質(zhì)和復(fù)雜性,必須澄清促進(jìn)人工智能系統(tǒng)發(fā)展的行為者的作用?;A(chǔ)模型的發(fā)展方式存在很大的不確定性,無論是在模式的類型方面還是在自我管理方面。因此,有必要澄清基礎(chǔ)模型提供者的法律狀況。結(jié)合其復(fù)雜性和意想不到的影響,下游人工智能提供者對基礎(chǔ)模型的發(fā)展的缺乏控制,以及隨之而來的權(quán)力不平衡,為了確保在人工智能價(jià)值鏈上公平地分擔(dān)責(zé)任,此類模型應(yīng)受到本條例規(guī)定的成比例且更具體的要求和義務(wù)、即基礎(chǔ)模型應(yīng)通過適當(dāng)?shù)脑O(shè)計(jì)、測試和分析來評估和減輕可能的風(fēng)險(xiǎn)和危害,應(yīng)實(shí)施數(shù)據(jù)治理措施,包括對偏見的評估,并應(yīng)遵守技術(shù)設(shè)計(jì)要求,以確保適當(dāng)?shù)男阅堋⒖深A(yù)測性、可解釋性、可更正性、安全性和網(wǎng)絡(luò)安全水平,并應(yīng)遵守環(huán)境標(biāo)準(zhǔn)。這些義務(wù)應(yīng)該有相應(yīng)的標(biāo)準(zhǔn)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 采油地質(zhì)工操作技能測試考核試卷含答案
- 船舶過閘及升船機(jī)調(diào)度員安全理論競賽考核試卷含答案
- 傘制作工安全知識模擬考核試卷含答案
- 金屬版印刷員安全生產(chǎn)能力測試考核試卷含答案
- 大班思維邏輯訓(xùn)練
- 路面維護(hù)合同范本
- 車輛協(xié)議取消合同
- 分包合同作廢協(xié)議
- 車輛解抵合同范本
- 合同取消退款協(xié)議
- GA/T 974.74-2015消防信息代碼第74部分:消防裝備器材分類與代碼
- 縣級醫(yī)院下轉(zhuǎn)一般鄉(xiāng)鎮(zhèn)衛(wèi)生院疾病病種參考目錄(僅供參考)
- 俄歇電子能譜課件
- 學(xué)習(xí)情境5:流量計(jì)的制作課件
- DBJ51-T 188-2022 預(yù)拌流態(tài)固化土工程應(yīng)用技術(shù)標(biāo)準(zhǔn)
- edgecam產(chǎn)品技術(shù)應(yīng)用培訓(xùn)教程
- 施工用電系統(tǒng)移交確認(rèn)單
- 公園改造安全文明施工方案
- 正方形性質(zhì)和判定
- 企業(yè)標(biāo)準(zhǔn)化管理手冊(完整版)
- 初三物理電學(xué)基本計(jì)算復(fù)習(xí)教案
評論
0/150
提交評論