【淺議人工智能侵權(quán)責(zé)任問題研究11000字】_第1頁
【淺議人工智能侵權(quán)責(zé)任問題研究11000字】_第2頁
【淺議人工智能侵權(quán)責(zé)任問題研究11000字】_第3頁
【淺議人工智能侵權(quán)責(zé)任問題研究11000字】_第4頁
【淺議人工智能侵權(quán)責(zé)任問題研究11000字】_第5頁
已閱讀5頁,還剩21頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

淺議人工智能侵權(quán)責(zé)任問題研究 1關(guān)鍵詞 11.緒論 1 11.2研究意義 21.3文獻(xiàn)綜述 2 51.3.2國外文獻(xiàn)綜述 51.3.3總體評價(jià) 2.現(xiàn)有法律框架下人工智能產(chǎn)品的法律地位 52.1明確侵權(quán)責(zé)任承擔(dān)主體 52.1.1傳統(tǒng)侵權(quán)責(zé)任的責(zé)任主體 52.1.2人工智能的責(zé)任主體性分析 52.2人工智能侵權(quán)的歸責(zé)原則 72.2.1過錯(cuò)責(zé)任原則 72.2.2無過錯(cuò)責(zé)任原則 72.3人工智能產(chǎn)品侵權(quán)責(zé)任承擔(dān) 82.3.1人工智能的使用人或監(jiān)控人 82.3.2人工智能的制造商、銷售商 82.3.3與人工智能相互作用的第三人 9 93.1歐盟的電子人格登記制度 93.2美國的自動(dòng)駕駛汽車安全標(biāo)準(zhǔn) 3.3英國的自動(dòng)駕駛汽車強(qiáng)制保險(xiǎn) 4.我國人工智能侵權(quán)責(zé)任制度構(gòu)建的建議 4.1我國人工智能侵權(quán)責(zé)任制度的構(gòu)建 4.2構(gòu)建人工智能的侵權(quán)責(zé)任規(guī)則 4.3強(qiáng)制投保責(zé)任保險(xiǎn) 15.結(jié)語 參考文獻(xiàn) 摘要:從根本上講,AI技術(shù)是一種新的科學(xué),可以模仿人類大腦的機(jī)能,從而關(guān)鍵詞:人工智能;侵權(quán)責(zé)任;過錯(cuò)原則;責(zé)任主體2013年,一款可以實(shí)現(xiàn)在市區(qū)公路上自動(dòng)行駛的車輛被視為一項(xiàng)空前的突共行程3500公里。如今,很多車都具備多種自動(dòng)化特性,而每年,汽車廠商都傷害,也并沒有減少人們對自動(dòng)駕駛技術(shù)的狂熱追求。2019年1月,特斯拉開工2如今,我們所處的時(shí)代正是由AI技術(shù)所引發(fā)的巨大變化,施瓦布預(yù)測,到了2025,將會(huì)有更為深刻的改變,而這種改變將會(huì)對我們的生命造成巨大的沖在此基礎(chǔ)上,本文從目前的產(chǎn)品責(zé)任理論出發(fā),研究AI的產(chǎn)品的職責(zé),必須從本質(zhì)上對其進(jìn)行界定。是否應(yīng)自主意識(shí)的AI納入到商品范圍,或者給予其獨(dú)立的民事法律權(quán)利?特別是我國的學(xué)術(shù)界對這一問題,各個(gè)方面都有自己的看法。趙磊和趙宇相信,這些人工一個(gè)獨(dú)立民事主體13。袁曾認(rèn)為,AI是一種法定的個(gè)性。人工智能不是完整地行規(guī)范4]。3正當(dāng)性標(biāo)準(zhǔn)提出了異議。當(dāng)技術(shù)標(biāo)準(zhǔn)不完善時(shí),一些不符合國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)的商品,即便沒有不合理的風(fēng)險(xiǎn)因素,也有不符合國家標(biāo)準(zhǔn)或行業(yè)標(biāo)準(zhǔn)的風(fēng)險(xiǎn)因素[6。張童認(rèn)為,尋找導(dǎo)致人工智能產(chǎn)品侵權(quán)的根源,是一個(gè)非常繁瑣的程序,它有可能包括制造、設(shè)計(jì)上的缺陷,也有銷售部門的經(jīng)營和售后服務(wù)方面的問題。但是,很難證明是何種事實(shí)、何種因果關(guān)系成立7。3.人工智能產(chǎn)品責(zé)任適用法律問題研究面對以上問題,如何界定AI產(chǎn)品的法律應(yīng)用成為當(dāng)務(wù)之急。目前學(xué)術(shù)界對這一問題有兩種觀點(diǎn):一是從民事法律視角出發(fā),提出用民事法律來處理人工智能的產(chǎn)品賠償問題;二是從經(jīng)濟(jì)學(xué)的角度出發(fā),認(rèn)為基于《產(chǎn)品質(zhì)量法》的產(chǎn)品責(zé)任體系來處理人工智能的產(chǎn)品責(zé)任問題更為恰當(dāng)。寧金成和李瑞升對人工智能致?lián)p問題進(jìn)行了深入的探討,認(rèn)為按照一般的侵權(quán)責(zé)任法律來處理,會(huì)產(chǎn)生侵權(quán)責(zé)任主體難以界定、歸責(zé)原則難以選擇、侵權(quán)責(zé)任類型難以確定等問題,利用產(chǎn)品責(zé)任對其致?lián)p行為進(jìn)行規(guī)制較為合適,但是也有需要改進(jìn)之處8。高完成以自動(dòng)駕駛汽車這一人工智能的代表,從其本身的特點(diǎn)出發(fā),對目前存在的問題進(jìn)行了剖析,包括認(rèn)定標(biāo)準(zhǔn)抽象、責(zé)任主體界定模糊等[91。蘭美海創(chuàng)新地列舉了各種形式的侵權(quán)行為,并對其進(jìn)行了歸類:補(bǔ)損責(zé)任適用于弱人工智能、強(qiáng)人工智能和超人工智能,補(bǔ)充責(zé)任適用于強(qiáng)人工智能,補(bǔ)助責(zé)任適用于超人工智能?!叭a(bǔ)”的職責(zé)形式既可以推動(dòng)人工智能的發(fā)展,又可以極大地保護(hù)受害者的利楊立新認(rèn)為,對智能機(jī)械人的產(chǎn)品責(zé)任應(yīng)當(dāng)是一種非過失責(zé)任。它能起到震懾的效果,促使設(shè)計(jì)者和生產(chǎn)者履行其應(yīng)有的職責(zé),降低設(shè)計(jì)、生產(chǎn)過程中出現(xiàn)的產(chǎn)品質(zhì)量問題,從而防止出現(xiàn)傷害事件[11。1.人工智能的法律地位探討HristovK通過對人工智能的合法身份的考察,認(rèn)為它可以被看作是一種手總結(jié)了歐洲聯(lián)盟的法律提案,提出給智能機(jī)器人獨(dú)立的獨(dú)立的個(gè)人信息,尤其是在其自己造成的傷害和獨(dú)立于第三方的時(shí)候,尤其要承擔(dān)更多的責(zé)任[13。2.人工智能產(chǎn)品的特點(diǎn)人工智能與一般的產(chǎn)品在許多地方存在差異,了解其特征,可以幫助我們找4到合適的監(jiān)管途徑。外國的研究人員認(rèn)為,人工智能的特點(diǎn)是自主、不可預(yù)測、以及深度的研究?,F(xiàn)代科技的發(fā)展比以往更快,智能設(shè)備能夠在不依靠人的命令的情況下獨(dú)立工作,能夠?qū)ν饨绲母鞣N情況進(jìn)行準(zhǔn)確的判斷和處理,顯示出自主的特點(diǎn)。JacobTurner在第一次提出了自主與自動(dòng)化之間的區(qū)別時(shí),提出自動(dòng)化即一種“連續(xù)重復(fù)”的過程,而“人工智能”卻擁有自主的能力,可以自由地進(jìn)行自己的選擇[14]。人工智能的產(chǎn)物,往往會(huì)違背既定的規(guī)則和規(guī)則,導(dǎo)致無法預(yù)測的結(jié)果,具有無法預(yù)測的特性。BalkinJM相信,智能學(xué)習(xí)系統(tǒng)的設(shè)計(jì)師們并沒有預(yù)料到其在進(jìn)入到人類社會(huì)之后會(huì)發(fā)生什么,但是從另一個(gè)角度來看,這種未預(yù)料到的動(dòng)作正是AI的產(chǎn)物設(shè)計(jì)師所希望達(dá)到的,盡管某些具體的行為并不應(yīng)該發(fā)生[15]。深度研究以海量數(shù)據(jù)為根基,而云計(jì)算則是其實(shí)施途徑。在自動(dòng)駕駛,語音識(shí)別,圖像識(shí)別等方面,都有著廣泛的運(yùn)用。沒有深度學(xué)習(xí),人工器學(xué)習(xí)等技術(shù)為主要特征的,可以從外部獲取新的信息,并持續(xù)地進(jìn)行深度學(xué)習(xí),并根據(jù)自身的情況進(jìn)行適應(yīng)性的調(diào)整[16。3.人工智能產(chǎn)品責(zé)任承擔(dān)探究目前,國內(nèi)外對智能汽車的責(zé)任的理論研究大多局限于自主研發(fā)的范疇,而對其進(jìn)行了界定。DavidC.Vladeck提出,在產(chǎn)品損害的過程中,存在著多層次、多元化的問題。在人為的影響下,司機(jī)的注意力責(zé)任向設(shè)計(jì)者和生產(chǎn)者傳遞。在無人為影響的自動(dòng)駕駛交通意外中,必須對制造商實(shí)行嚴(yán)格的賠償制度,并建立強(qiáng)制性的賠償制度。WeaverJF認(rèn)為:如果由于許多方面的過失導(dǎo)致了個(gè)人的傷害,把所有的責(zé)任都推給某一個(gè)體是不公正的,因此必須將AI單獨(dú)列為一種行為,并給予它一種獨(dú)立的權(quán)利[18]。MarkA.Geistfeld很好地運(yùn)用了無人駕駛車的等級劃分了它所要承擔(dān)的義務(wù),并且在沒有完全無人駕車的情況下,與一般的機(jī)動(dòng)車一樣。而汽車制造商則是在可預(yù)測的危險(xiǎn)中負(fù)起全部的義務(wù),在無法預(yù)料的情況下,不負(fù)任何事故的發(fā)生191。PatrickChisanHew站在倫理的立場上,認(rèn)為人工智能的行為準(zhǔn)則和方法應(yīng)該是人制定的,而倫理的義務(wù)也應(yīng)該屬于創(chuàng)造了它的那個(gè)人[201??傊?,關(guān)于人工智能的產(chǎn)品責(zé)任問題,中外學(xué)術(shù)界均從多個(gè)視角展開討論。5的探討。變的,而權(quán)力的對象只能是人。根據(jù)《民法總則》,公民權(quán)利的性質(zhì)是平等的,定的權(quán)力?!妒澜缛藱?quán)宣言》于1948年首條對現(xiàn)今的法理架構(gòu)作了一個(gè)概括:情誼的精神對待彼此?!北M管自然人的義務(wù)取決于他們自己的“理智與良知”,但也有一些不能剝奪合國兒童權(quán)利公約》一樣,它于1989年被頒布。因此,我們可以象小孩那樣,不負(fù)任何義務(wù),而只是享受權(quán)力。近代民法典的根本理念是:法律上人人平等。的作品是否應(yīng)該受到中國版權(quán)法的保護(hù)。2018年9月,北京菲林律師事務(wù)所的微認(rèn)定百度侵害其版權(quán),將縮微平律師事務(wù)所百度公司起訴至法庭。在12月4日6有關(guān)條款是否應(yīng)受版權(quán)法保護(hù)的問題上。原告費(fèi)林律師事務(wù)所認(rèn)為,被告百度的行為侵犯了其文章的版權(quán)。而言,被告是百度的相關(guān)文章,聲稱曾被一個(gè)軟件產(chǎn)品保護(hù)。根據(jù)版權(quán)法,自然人、法人或者其他組織創(chuàng)作的作品受版權(quán)法保護(hù)。人工智能不包括在內(nèi)。主持此案的法官說:人工智能創(chuàng)作的作品可以獲得版權(quán)嗎?如果作品不是由自然人創(chuàng)作的,那么誰應(yīng)該從版權(quán)中受益的問題和其他前沿問題是法院在訴訟過程中必須探索和解決的問題。這個(gè)案子最終沒有在法庭上審理。與《著作權(quán)法》一樣,《民法典》中的侵權(quán)責(zé)任篇目尚未明確人工智能的法律地位。因此,為了討論問題時(shí)所犯的侵權(quán)責(zé)任,首先應(yīng)該考慮人工智能是怎么樣的法律地位。人工智能可以比較的自然人、動(dòng)物、普通機(jī)械等等,然后明確確認(rèn)人工智能的法律地位。其次,按照人工智能的三個(gè)行為特征,部分專家將人工智能當(dāng)做動(dòng)物:第一,人工智能是互動(dòng)的,由于他能感覺到周圍的情況,并且對其特性或內(nèi)在條件作出響應(yīng)。而且,由于人工智能能夠自動(dòng)地變化其內(nèi)在的狀況和特性而不受到外界的影響,因而無需人為干預(yù)就能夠進(jìn)行自我調(diào)控。再次,由于人工智能能夠通過修改自身的內(nèi)在狀況或特性而提高其適應(yīng)能力。與此同時(shí),這種個(gè)性似乎與幼兒有著某種類似的關(guān)系,因?yàn)閯?dòng)物或者兒童都有權(quán)利,但沒有具體的責(zé)任。大衛(wèi)●麥克法蘭德(Davidmcfrender)在他的《內(nèi)疚的機(jī)器人,快樂的狗》(happydog)中說,我們應(yīng)該在處理動(dòng)物行為造成的個(gè)人過失時(shí),與機(jī)器人建立法律關(guān)系,而不是認(rèn)為傷害是由人工智能造成的。然而人工智能與動(dòng)物的不同之處在于它的身份控制和自綜上所述,由于人工智能缺乏必要的生活而無法得到個(gè)性的根基,也缺乏人的人性和倫理,因此無法與自然人相提并論。而與一般的機(jī)械或畜生不一樣,人工智能是由人工設(shè)計(jì)并創(chuàng)造出來的“人類工人”,能夠自主地脫離程序。在這種情況下,如果人工智能為個(gè)人或財(cái)產(chǎn)造成的傷害承擔(dān)責(zé)任,則是出于自愿,人工智能能否在損害的法律關(guān)系中作為責(zé)任方或其他代理人承擔(dān)相應(yīng)的責(zé)任?鑒于現(xiàn)有的法律制度,人工智能很難被視為一個(gè)法人實(shí)體,也很難確定其行為的性質(zhì)。在可預(yù)見的將來,保險(xiǎn)業(yè)監(jiān)督的法人資格將是必要的。從侵權(quán)責(zé)任的角度來看,人工智能可以借鑒現(xiàn)有的法人制度,即雖然法人具有法律規(guī)定的法人資格,但最7終責(zé)任在于自然人。為了更好地解決人工智能侵權(quán)責(zé)任問題,人工智能應(yīng)具有與法人相同的法律地位。但是,由于人工智能本身沒有所有權(quán),而且他們也無力為自己的行為負(fù)責(zé),所以最后的罪魁禍?zhǔn)讘?yīng)該是由那些支持人工智能的人來負(fù)責(zé)。2.2人工智能侵權(quán)的歸責(zé)原則2.2.1過錯(cuò)責(zé)任原則過錯(cuò)歸責(zé)原則,既是行為人過錯(cuò)規(guī)則的基礎(chǔ),也是法官解決侵權(quán)訴訟的規(guī)則。歸責(zé)原則涉及構(gòu)成侵權(quán)或不法行為責(zé)任的要素中的“過錯(cuò)”因素。在過失要素方面,《民法典》規(guī)定了在過失與非過失的基礎(chǔ)上確立了“二元制度”。過失是以過失為歸責(zé)根據(jù),以責(zé)任的組成元素為根據(jù),僅當(dāng)過失對別人的民事權(quán)利造成傷害時(shí)才適用,才能承擔(dān)侵權(quán)責(zé)任。現(xiàn)行法律并沒有明確界定人工智能的法律地位,也沒有確定它的過錯(cuò)是善意的還是惡意的。《民法典》中的侵權(quán)責(zé)任篇目中的過錯(cuò)責(zé)任原則不適用于AI(人工智能)侵權(quán)的情況時(shí),可以根據(jù)案件的實(shí)際情況,在無過錯(cuò)責(zé)任的基礎(chǔ)上進(jìn)行處理。2.2.2無過錯(cuò)責(zé)任原則最著名的部分是GPS事故歸責(zé)于人工智能的案例。2015年,一名司機(jī)按照GPS的指示到達(dá)懸崖邊緣,車輛被困住,最終不得不請求警方幫助將其拖回安全地帶。雖然駕駛員堅(jiān)稱是GPS導(dǎo)致了這起車禍,但是英國法庭最后認(rèn)定是駕駛員的過失。在2016發(fā)生的一次嚴(yán)重交通事故中,一位裁判相信GPS卡會(huì)造成一定的后果,但是很大程度上是由于駕駛員過度依靠GPS,最后被判入獄4年。聯(lián)合國教科文組織2019年關(guān)于機(jī)器人倫理的初步報(bào)告將機(jī)器人等智能產(chǎn)品視為技術(shù)產(chǎn)品。根據(jù)目前的立法,不管AI的智能程度如何,甚至不受人的影響,其身體特性都被公認(rèn)為沒有自主能力的特性。對涉嫌侵權(quán)的企業(yè)研發(fā)的人工智能,應(yīng)按照《產(chǎn)品責(zé)任法》規(guī)定進(jìn)行。所以,如果把它當(dāng)作一種商品來賣的話(也就是法庭通常會(huì)對人工智能的一些問題進(jìn)行研究),就可以認(rèn)定生產(chǎn)和銷售的人工智能系統(tǒng)有問題而導(dǎo)致對別人的財(cái)產(chǎn)和身體的損害負(fù)有法律上的責(zé)任。因此,當(dāng)可以采用非過失責(zé)任時(shí),如果將AI當(dāng)作商品來賣(也就是法院通常會(huì)調(diào)查人工智能的一些問題和瑕疵),就會(huì)將人工智能的生產(chǎn)和銷售行為歸咎于實(shí)體或個(gè)人,而非過失賠償?shù)呢?zé)任,就可以采用這種方式。按照《民法典》對侵權(quán)行為的規(guī)定,“因商品有瑕疵而使其他消費(fèi)者的民事8權(quán)利受到侵害的,應(yīng)當(dāng)以其生產(chǎn)者、經(jīng)營者生產(chǎn)者和銷售者都有義務(wù)為瑕疵商品所引起的侵權(quán)行為負(fù)上法律的義務(wù)。由制動(dòng)故障引起的交通意外是一個(gè)最經(jīng)典的例子。也就是說,當(dāng)由于廠商和賣家的錯(cuò)誤,致使智能系統(tǒng)出現(xiàn)了問題,從而使被侵權(quán)者受到傷害,則不管其自主能力如何,都可以由被侵權(quán)方自行選擇?!睹穹ǖ洹穼η謾?quán)行為的規(guī)定是:“由于商品的質(zhì)量問題,導(dǎo)致其他消費(fèi)者的權(quán)利受到侵害的,由生產(chǎn)者或者賣方承擔(dān)?!痹趪?yán)格的賠償制度下,制造商和賣方可以對有瑕疵的商品所引起的損失承擔(dān)賠償。由剎車缺陷引起的汽車事故是產(chǎn)品責(zé)任最典型的例子。簡單的講,如果制造商人為失誤導(dǎo)致人工智能產(chǎn)品出現(xiàn)侵權(quán),進(jìn)而損害權(quán)利人的制假損害,持有人可以選擇被生產(chǎn)者或者銷售者負(fù)責(zé)產(chǎn)品的無過錯(cuò)責(zé)任。2.3人工智能產(chǎn)品侵權(quán)責(zé)任承擔(dān)由于人工智能的使用越來越廣泛,傳統(tǒng)的侵權(quán)責(zé)任承擔(dān)方法已經(jīng)不適用于處理人工智能侵權(quán)等情況。與此同時(shí),人工智能侵權(quán)責(zé)任問題正變得越來越嚴(yán)峻,2.3.1人工智能的使用人或監(jiān)控人如果侵權(quán)行為造成的損害事故是由用戶或人工智能監(jiān)督員造成的,則人工智能監(jiān)督員應(yīng)負(fù)法律責(zé)任。例如:人工智能建筑工人在施工過程中,根據(jù)監(jiān)理人員的錯(cuò)誤領(lǐng)導(dǎo),錯(cuò)誤地對墻壁進(jìn)行拆除,導(dǎo)致整棟大樓倒塌的嚴(yán)重后果。手術(shù)過程中出現(xiàn)了機(jī)械故障,負(fù)責(zé)監(jiān)督手術(shù)的人體醫(yī)生沒有正確跟蹤手術(shù),導(dǎo)致手速失敗患者不得不進(jìn)行再一次的手術(shù)。在這種情況下,原告很可能會(huì)援引“疏忽”作為被告責(zé)任的理由。但是,獨(dú)立的人工智能,沒有任何產(chǎn)品缺陷,能夠做出自己的決定,是造成事故的原因,這意味著沒有人應(yīng)該為此負(fù)責(zé)。2.3.2人工智能的制造商、銷售商過程中的干擾或其他原因,如果造假責(zé)任分配將以適當(dāng)和相稱的有關(guān)各方之間,即賣方設(shè)計(jì)者、制造商等。從本質(zhì)上講,這種補(bǔ)救措施可以被視為產(chǎn)品缺陷責(zé)任或過失損害賠償責(zé)任。例如,廚師在準(zhǔn)備牛排時(shí)出了故障,引起了一場大火,燒毀了主人的房子。人工智能賣家在識(shí)別物品時(shí)犯了一個(gè)代碼錯(cuò)誤,他把酒精賣給了一名未成年人,導(dǎo)致了一場醉酒事故。9可能的制造商和設(shè)計(jì)者覺得他們的發(fā)明將被迫向他們的損失負(fù)責(zé),那么,當(dāng)這個(gè)谷歌公司的一家無人駕駛車輛分部于2019年報(bào)道稱:一臺(tái)無人車在路面試由智能與第三人的互動(dòng)引起的侵權(quán)行為,實(shí)質(zhì)上與人3.國外涉及人工智能的法律經(jīng)驗(yàn)借鑒當(dāng)然,各國的政府也在竭盡全力追趕,有些國家甚至針對違背AI行為的法2016年,法律服務(wù)理事會(huì)就民用機(jī)器人應(yīng)用的法律法規(guī)草案向歐洲理事會(huì)遞交了一項(xiàng)草案,并于10月發(fā)布了適用于歐盟民用機(jī)器人的法律規(guī)則。2017年創(chuàng)建一個(gè)新的法律人格一—“電子人格”,以保障人工智能的權(quán)利和責(zé)任。。通料、紀(jì)錄動(dòng)作與決定的“黑匣子”;由AI所作出的一切決策,將會(huì)極大地改變3.2美國的自動(dòng)駕駛汽車安全標(biāo)準(zhǔn)美國內(nèi)華達(dá)州于2011年六月率先通過無人駕駛汽車法案,從而使其能夠在公眾路上使用。這項(xiàng)議案授權(quán)內(nèi)華達(dá)州運(yùn)輸部門制訂規(guī)章,以規(guī)范測試、安全性能,并最終規(guī)范無人駕駛車輛的使用。該規(guī)定:“當(dāng)一個(gè)人激活自動(dòng)駕駛技術(shù)時(shí),無論他在啟動(dòng)時(shí)是否在車輛上,他都被視為自動(dòng)駕駛車輛的駕駛員。”交通運(yùn)輸部在2012與汽車制造商,谷歌,保險(xiǎn)公司和消費(fèi)者組織進(jìn)行磋商后,制定并執(zhí)行了這項(xiàng)法規(guī)。佛羅里達(dá)和加利福尼亞的規(guī)定也包含了類似的法律原則,人工智能為實(shí)際控制汽車的“司機(jī)”,無論不管啟動(dòng)汽車的人是否控制汽車。3.3英國的自動(dòng)駕駛汽車強(qiáng)制保險(xiǎn)英國國會(huì)于2016英國汽車研究中心發(fā)表了兩篇關(guān)于車輛投保及產(chǎn)品賠償?shù)奶岚福很嚨準(zhǔn)芎θ丝梢砸笃嚬举r償,保險(xiǎn)公司也可以根據(jù)現(xiàn)行法律向最終責(zé)任人索賠。4.1我國人工智能侵權(quán)責(zé)任制度的構(gòu)建中國已經(jīng)是一股推動(dòng)人工智能發(fā)展的新生事物,正在努力創(chuàng)造一個(gè)健康、可持續(xù)的發(fā)展的生態(tài)系統(tǒng)。2018年,《人工智能標(biāo)準(zhǔn)化白皮書》公布了一份關(guān)于人工智能的法規(guī),必須充分考慮研制和部署過程中,對于人工智能技術(shù)開發(fā)者和過隨著工業(yè)革命的技術(shù)前進(jìn)的步伐,人工智能技術(shù)也出現(xiàn)了。我們不能夠阻止它的發(fā)展,如果對它作出合理的反應(yīng),也不會(huì)有阻止人工智能繼續(xù)發(fā)展的想法。在人工智能技術(shù)的發(fā)展過程中,需要努力確保改技術(shù)能夠得到正確的指導(dǎo),責(zé)任和監(jiān)管被視為一枚硬幣的正反兩面。該規(guī)定旨在確保人工智能系統(tǒng)盡可能安全,同時(shí)刺激創(chuàng)新。責(zé)任在于,如果出現(xiàn)問題,誰應(yīng)對系統(tǒng)的失敗負(fù)責(zé),或者更為準(zhǔn)確地說,受害者可以從哪一方取得法律補(bǔ)救。4.2構(gòu)建人工智能的侵權(quán)責(zé)任規(guī)則隨著人工智能自身的高度自治,它越來越不可能成為其它個(gè)體的輔助手段。為防止成本過高的法律程序以及由于智能技術(shù)的侵害導(dǎo)致的受害者無法得到補(bǔ)償,我們可以考慮對其進(jìn)行相關(guān)的法律規(guī)定。如果人工智能所擁有的自主性越大,就越難以作為其他主題的輔助手段和工具,現(xiàn)有的侵權(quán)責(zé)任框架也就越難應(yīng)用。為了避免昂貴的程序和過高的證明要求,如果過度地防止受害人因?yàn)榍址噶薃I而得到損失,那么就可以考慮建立一套關(guān)于人工智能的侵權(quán)責(zé)任準(zhǔn)則。新的職責(zé)規(guī)定:新人工智能管理規(guī)則下的責(zé)任有關(guān)的事項(xiàng)的證據(jù)標(biāo)準(zhǔn)、交付相關(guān)侵權(quán)事實(shí)的即有因果關(guān)系。通過減少證據(jù)標(biāo)準(zhǔn),可以避免使用專家和律師的費(fèi)用,從而節(jié)省訴訟費(fèi)用,并為受害者提供更充分的賠償。在確定保險(xiǎn)業(yè)監(jiān)督侵權(quán)責(zé)任的最終持有人時(shí),其責(zé)任應(yīng)與保險(xiǎn)業(yè)監(jiān)督的程序級別和自主性程度相對應(yīng)。換句話說,人工智能本身學(xué)習(xí)的能力越強(qiáng),參與者的責(zé)任就越小。另外,差別化責(zé)任的適用可能取決于為人工智能建立一個(gè)預(yù)先提交批準(zhǔn)文件的制度。舉例說,在監(jiān)管當(dāng)局的事先核準(zhǔn)程序的一部分,受害者必須證明產(chǎn)品的責(zé)任,否則,AI的生產(chǎn)者或者銷售者不得為人工智能的侵權(quán)行為承擔(dān)有限責(zé)任。另一方面,如果人工智能沒有得到批準(zhǔn),一些相關(guān)人員必須嚴(yán)格團(tuán)結(jié)一致,以便更好地照顧受害者。3.責(zé)任分擔(dān)規(guī)則在AI侵權(quán)責(zé)任的情況下,人工智能本身只能對結(jié)果負(fù)責(zé),但最終責(zé)任必須由人工智能背后的相關(guān)主體分擔(dān)。與此同時(shí),由于保險(xiǎn)業(yè)監(jiān)督的自主性和復(fù)雜性可能涉及多個(gè)侵權(quán)主體的責(zé)任,因此可以區(qū)分內(nèi)部責(zé)任和外部責(zé)任。在外部,是人工智能和受害者對罪行負(fù)責(zé),在內(nèi)部,是受影響的人之間的共同責(zé)任。售者和人工智能的業(yè)主共同承擔(dān),如果違反,并且所有受益人須履行安全義務(wù)。一方面,生產(chǎn)者、銷售者、所有者等比受害者更有能力承擔(dān)利益的成本,并分擔(dān)損失的負(fù)擔(dān),例如通過成本內(nèi)部化。另一方面,可預(yù)見的責(zé)任機(jī)制比可預(yù)見的法律制度更有利于創(chuàng)新。4.3強(qiáng)制投保責(zé)任保險(xiǎn)因生產(chǎn)或設(shè)計(jì)上的問題而造成的安全問題,須負(fù)財(cái)務(wù)賠償,從而導(dǎo)致其投資成本的增加,從而在一定程度上限制了更新和升級步伐,阻礙技術(shù)發(fā)展的人工智能技術(shù)。在這方面,在國外執(zhí)行的法律政策中規(guī)定,需要采用保險(xiǎn)的方式降低人工智能使用者的賠償負(fù)擔(dān)。比如英國,英國國會(huì)于2016提出將汽車強(qiáng)制投保擴(kuò)展至產(chǎn)品責(zé)任,即當(dāng)司機(jī)將車輛的控制權(quán)交給無人駕駛時(shí),為司機(jī)投保。同時(shí),國家也可以強(qiáng)制所有參與生產(chǎn)、銷售、使用等的單位或人員使用承保責(zé)任和補(bǔ)償資金,并依照外國的慣例。作為保險(xiǎn)和基金的資金來源,參與者應(yīng)根據(jù)盡職調(diào)查的要求,分別向保險(xiǎn)和基金機(jī)構(gòu)繳納一定款項(xiàng)。有關(guān)部門或機(jī)構(gòu)須設(shè)計(jì)新的保險(xiǎn)產(chǎn)品或基金,同時(shí)考慮到AI產(chǎn)品的特點(diǎn)并考慮到實(shí)際確定的比例撥付資金,是否承認(rèn)支付資金安排和補(bǔ)償措施,對于一個(gè)健全的售后服務(wù)。一旦受到的人身或財(cái)產(chǎn)造成損害的人工智能產(chǎn)品中,受害者可以得到賠償,首先由保險(xiǎn)機(jī)構(gòu)和基金,并補(bǔ)足的部分由相關(guān)責(zé)任人承擔(dān),從而充分減輕受害人的權(quán)利和合法利益。當(dāng)然也需要國家一級的協(xié)調(diào)努力,以改善這方面的法律和規(guī)章,以嚴(yán)厲的處罰還是那些無助于企業(yè)籌措資金,以確保法律安全中大力推行人工智能民事賠償責(zé)任保險(xiǎn)產(chǎn)品與賠償基金。在技術(shù)革新的各個(gè)方面,都會(huì)遇到以下三個(gè)方面的問題:一是降低受害人身體損害的數(shù)目和損害的范圍;第二,對受害人所遭受的損失進(jìn)行適當(dāng)?shù)姆謹(jǐn)?;第三,盡量表面影響創(chuàng)新技術(shù)的發(fā)展?,F(xiàn)在,人工智能一步步接近我們,人工智能的時(shí)代正在迅速到來。人工智能技術(shù)的發(fā)展不僅影響人類行為,而且會(huì)直接對人類造成風(fēng)險(xiǎn)和利益損失,并將不可避免地對管理人類行為、風(fēng)險(xiǎn)和利益的法律制度產(chǎn)生深遠(yuǎn)的、甚至是顛覆性的影響。因此,需要加快構(gòu)建人工智能的侵權(quán)責(zé)任,并建立全流程監(jiān)管事前和事后加保險(xiǎn),以更加有效和公平的方式關(guān)注人工智能技術(shù)創(chuàng)新對社會(huì)共同安全的幫助。[5]胡元聰.我國人工智能產(chǎn)品責(zé)任之發(fā)展風(fēng)險(xiǎn)抗辯制度構(gòu)建研究[J]

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論