人工智能產(chǎn)品侵權(quán)法律責任研究_第1頁
人工智能產(chǎn)品侵權(quán)法律責任研究_第2頁
人工智能產(chǎn)品侵權(quán)法律責任研究_第3頁
人工智能產(chǎn)品侵權(quán)法律責任研究_第4頁
人工智能產(chǎn)品侵權(quán)法律責任研究_第5頁
已閱讀5頁,還剩17頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領

文檔簡介

題目:人工智能產(chǎn)品侵權(quán)法律責任研究摘要隨著人工智能科學技術(shù)的快速發(fā)展,人工智能科學技術(shù)越來越多的被運用到我們?nèi)祟惖纳a(chǎn)生活中,各類人工智能產(chǎn)品應運而生,隨著人工智能產(chǎn)品與我們的生活越來越接近,人工智能產(chǎn)品的侵權(quán)行為也成為了一個有待解決的問題,本文首先分析人工智能的發(fā)展情況以及目前人工智能產(chǎn)品所產(chǎn)生的問題,就現(xiàn)在人工智能的發(fā)展趨勢以及生產(chǎn)中的問題進行分析,并在這之后結(jié)合現(xiàn)有的法律體系對人工智能對產(chǎn)品的研發(fā)過程、生產(chǎn)過程、銷售過程中可能出現(xiàn)的問題進行分析,并闡述了解決方案,并舉例說明了人工智能產(chǎn)品的侵權(quán)行為,結(jié)合實例與現(xiàn)有的法律體系對侵權(quán)后的問題提出解決方案。關(guān)鍵詞:人工智能;產(chǎn)品;侵權(quán)行為;法律體系AbstractWiththerapiddevelopmentofartificialintelligencescienceandtechnology,artificialintelligencescienceandtechnologyaremoreandmoreusedinourproductionandlife,allkindsofartificialintelligenceproductsemergeatthehistoricmoment,withtheartificialintelligenceproductsandourlifemoreandmoreclose,theinfringementofartificialintelligenceproductshasbecomeaproblemtobesolved,thispaperfirstanalyzesthedevelopmentofartificialintelligenceInthispaper,thedevelopmenttrendofartificialintelligenceandtheproblemsintheproductionareanalyzed.Then,combinedwiththeexistinglegalsystem,thepossibleproblemsintheresearchanddevelopmentprocess,productionprocessandsalesprocessofartificialintelligenceproductsareanalyzed,andthesolutionsaredescribed,andanexampleisgiventoillustratetheinvasionofartificialintelligenceproductsRightbehavior,combinedwithexamplesandtheexistinglegalsystemtoproposesolutionstotheproblemsafterinfringement.Keywords:artificialintelligence;products;artificialintelligenceproductsinfringement;legalsystem北京理工大學現(xiàn)代遠程(繼續(xù))教育學院畢業(yè)設計(論文)目錄1引言 11.1研究背景 11.1.1人工智能產(chǎn)品侵權(quán)的研究必要性 11.2人工智能產(chǎn)品的研究前景 22人工智能及其人工智能產(chǎn)品的概念 32.1人工智能的概念 32.2人工智能產(chǎn)品的概念 32.2.1現(xiàn)有人工智能產(chǎn)品的社會屬性 33人工智能產(chǎn)品的法律地位研究 43.1人工智能產(chǎn)品主體地位分析 43.1.1人工智能產(chǎn)品的特性 43.2人工智能產(chǎn)品未來的發(fā)展可能 54人工智能是否具備法律主體地位的必要條件 64.1法律地位的概念 64.1.1法律地位 64.1.2法律主體 64.2人工智能產(chǎn)品的法律地位 64.2.1人工智能產(chǎn)品是否具有法律主體地位的資格 74.2.2人工智能產(chǎn)品現(xiàn)有的發(fā)展階段 74.2.3賦予人工智能產(chǎn)品主體地位的弊端 85人工智能產(chǎn)品確定非主體地位的合理性 95.1關(guān)于人工智能產(chǎn)品立法討論 95.1.1人工智能產(chǎn)品立法面臨的問題 106人工智能產(chǎn)品侵權(quán)責任主體的認定 116.1人工智能產(chǎn)品的侵權(quán)主體認定 116.1.1人工智能產(chǎn)品的研發(fā)者 116.1.2人工智能產(chǎn)品的生產(chǎn)者 116.1.3人工智能產(chǎn)品的銷售者 126.1.4人工智能產(chǎn)品工作期間的操作者 127人工智能產(chǎn)品違法侵權(quán)行為的認定 137.1侵權(quán)法的因果關(guān)系 138結(jié)語 14致謝 15參考文獻 16引言1.1研究背景1.1.1人工智能產(chǎn)品侵權(quán)的研究必要性隨著人工智能技術(shù)的不斷發(fā)展,近幾年人工智能產(chǎn)品也在不斷出新,各種人工智能機器人越來越廣泛的應用于我們的日常生活中,2016年春節(jié)聯(lián)歡晚會上540個智能機器人表演舞蹈《心中的英雄》,2018年2月首次亮相的第一代Walker,那時候還是一個胸以下只有大長腿的簡單機器人,靈活性以及反映效果都大打折扣,但是僅僅過了一年不到的時間,Walker就進化出了雙臂以及手掌,雙手中的八個微型伺服舵機可以再1.5秒就完成張合,從而做出例如SWAG、端茶倒水,甚至彈琴寫字等高難度動作,不僅如此,現(xiàn)在人類已經(jīng)成功的研制出了智能汽車,智能家電等等,人工智能產(chǎn)品與我們的生活接觸越來越廣,越來越深,向人工智能手機已經(jīng)走進了我們的生活,成為了我們生活中不可或缺的一部分,現(xiàn)在看來,人工智能的發(fā)展速度已經(jīng)超出了我們的預想,已經(jīng)有一部分人工智能產(chǎn)品超越了人類的控制,因此有必要對人工智能產(chǎn)品進行法律定位。1.2人工智能產(chǎn)品的研究前景目前就人工智能產(chǎn)品的法律地位產(chǎn)生了諸多討論,國內(nèi)外的哲學家、科學家、法學家對是否應該賦予人工智能產(chǎn)品法律人格的觀點也是各不相同,約翰.羅杰斯.希爾勒針對計算機和其他信息處理器曾提出“強人工智能”一詞,其觀點認為計算機只是對某些事情一種編碼表現(xiàn),機器不可能對于數(shù)據(jù)有任何理解,基于這一論點,希爾勒認為即使有人工智能產(chǎn)品通過了圖靈測試,也不一定說明人工智能產(chǎn)品就會真的像人一樣有思維和意識;但也有哲學家持不同觀點,DANIELC.DENNETT再其著作《CONSCIOUSNESSEXPALAINED》里認為,人不過是一臺有靈魂的機器,為什么人可以有智能,而普通機器就不能呢,他認為上述數(shù)據(jù)轉(zhuǎn)換機器是有可能有思維和意識的,也有的哲學家認為,如果弱人工智能可能是實現(xiàn)的,那么強人工智能就可能實現(xiàn),比如SIMONBLACKBURN在其哲學入門教材THINK里表達:我永遠不可能知道另一個人是否像我一樣智能,還是說他(她)們僅僅是看起來智能,基于這個觀點,既然人工智能產(chǎn)品看起來是智能的,那就不能完全否定這個人工智能產(chǎn)品是否真的是智能;戴維斯教授則認為:人工智能產(chǎn)品與法人相似,應該具有與法人相同的法律人格,不僅學者對此討論,立法機構(gòu)也是走在前沿,2017年俄羅斯發(fā)起并起草《完善機器人領域關(guān)系法律調(diào)整部分修改俄羅斯聯(lián)邦民法典的聯(lián)邦法律》(又稱《格里申法案》),第一條就提出了應當賦予“機器人-代理人”擁有獨立財產(chǎn),并為自己的名義取得行使民事權(quán)利和承擔民事義務,2019年6月17日,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責人的人工智能》,提出了人工智能的治理框架。目前的研究,缺乏相應的理論基礎與邏輯論證,不管是支持方還是反對方都應該說明賦予人工智能產(chǎn)品法律地位的法學與哲學基礎。人工智能及其人工智能產(chǎn)品的概念2.1人工智能的概念人工智能是研究、開發(fā)用于模擬、延伸和擴展人智能的理論、方法、技術(shù)及應用系統(tǒng)的一門技術(shù)科學。2.2人工智能產(chǎn)品的概念人工智能產(chǎn)品是人類通過了解智能的實質(zhì),而生產(chǎn)出一種新的能與人類思維相似的方式做出反應的智能機器,人工智能的定義可以分為“人工”和“智能”,“人工”比較好理解,人工智能產(chǎn)品是人類通過電腦科學技術(shù)以及現(xiàn)代化工業(yè)技術(shù)制造出來的產(chǎn)品,也體現(xiàn)了人類在人工智能發(fā)展階段不可忽視的重要性,可是關(guān)于“智能”,各類觀點就比較多,在哲學、計算機科學等學科里面都對他有相關(guān)的定義,也各不相同,它涉及到意識、自我、思維等多重方面,然而這些“意識”“自我”“思維”的效果性就是法律所需要的調(diào)整的目的所在。因此從法律角度來定義人工智能產(chǎn)品是人類生產(chǎn)出來的具有類似人類的“意識”、“自我”、“思維”的機器或工具,人工智能產(chǎn)品是一種被人類賦予意志的商品。2.2.1現(xiàn)有人工智能產(chǎn)品的社會屬性 人工智能產(chǎn)品綜合而言,人工智能產(chǎn)品是人類通過科學、工業(yè)技術(shù)所生產(chǎn)并賦予與人相似的的思維、行為方式的產(chǎn)品,從而使其達到人類預期效果的人工智能產(chǎn)品,以此類推,人工智能產(chǎn)品即為人類生產(chǎn)并投入市場的商品。人工智能產(chǎn)品的法律地位研究3.1人工智能產(chǎn)品主體地位分析目前人工智能產(chǎn)品雖然具有類似人類的思維、精神、行為等,但并為發(fā)展出與人類相同的理性思維,也不可依據(jù)這份類似人類的思維賦予其自然人的法律主體地位,人工智能產(chǎn)品只是人類為了實現(xiàn)自身所期望的目的而生產(chǎn)的產(chǎn)品,賦予其自然人的法律地位并沒有什么益處,人工智能產(chǎn)品未來的發(fā)展極具前景,而且蘊藏的能量巨大,因此人工智能產(chǎn)品必須處于人類的控制之下,所以人工只產(chǎn)品不能擁有法律主體地位。只能處于客體地位。3.1.1人工智能產(chǎn)品的特性首先,人工智能產(chǎn)品沒有類似于人類的理性思考能力,不能取得類似于人類的法律主體地位,人工智能產(chǎn)品是人類通過電腦技術(shù)進行編程,從而讓人工智能產(chǎn)品達到人類預期的效果,編程并不是讓人工智能產(chǎn)品做出自我思考后進行判斷,而是通過編程讓人工智能產(chǎn)品執(zhí)行指令,但是近幾年來新型人工智能產(chǎn)品逐漸改變了僅僅是執(zhí)行命令而不能自主思考決策的觀念,自2016年以來人工智機器人在各個行業(yè)的運用愈加廣泛,例如智能機器人“安安”已經(jīng)實現(xiàn)與人的自主對話,現(xiàn)在“機器學習”功能使人工智能產(chǎn)品能夠在不需要程序員提前設定的好指令的情況下自主思考,它們可以實現(xiàn)主動學習,這些都是通過深度學習算法實現(xiàn)的,深度學習算法允許人工智能產(chǎn)品從數(shù)據(jù)中推演出新的規(guī)則,這意味著深度學習算法替代了程序員創(chuàng)建了新規(guī)則,現(xiàn)在所生產(chǎn)的汽車自動駕駛技術(shù)也是根據(jù)這種深度學習算法的推演來實現(xiàn)的,即便是人工智能產(chǎn)品擁有了這種深度學習算法,但是這還是不足以賦予其法律主體地位。當前的擁有“深度學習算法”人工智能產(chǎn)品,雖有一定自主學習的能力和自主判斷的能力,但這并代表人工智能產(chǎn)品擁有與人一樣的理性思考能力,人工智能產(chǎn)品只是人類通過科技手段生產(chǎn)出來的產(chǎn)物,無法完全進行獨立的理性思考,它只能通過人類對其設定的算法或者對其進行海量的試驗以及訓練來認識事務,這樣使得人工智能產(chǎn)品對于世界的認知受了大大的限制,人工智能產(chǎn)品無法感知人類的情緒、情感、直覺等多種抽象內(nèi)容,人是有多重性的,人對事物的認識取決于人類大腦的機能,也與人在社會生活中的閱歷相關(guān),人類大腦具有從自己所經(jīng)歷事情中提取有用的結(jié)論,也具備將豐富的閱歷融匯成常識的能力,人類因而具備從認知中獲取信息的能力,但是目前人工智能產(chǎn)品僅僅只能模擬一些比較簡單的智慧,主要體現(xiàn)在通過數(shù)據(jù)的方式獲取信息,并解讀信息,從信息中提煉所需要執(zhí)行的指令,然后執(zhí)行指令,從而達到解決問題的目的。不像人類可以根據(jù)自己的主觀目的,通過自己的知識、直覺、靈感等形成定義問題和提出問題的能力,人工智能產(chǎn)品終究因為是人類設計生產(chǎn)出來的,生產(chǎn)人工智能產(chǎn)品的目的是由設計生產(chǎn)這款產(chǎn)品的人來決定,人工智能產(chǎn)品并沒有自我意識,不懂自己的行為方式目的和意義,對所做行為產(chǎn)生的后果也無法感知對與錯,人工智能不具備人類情感,人有七情(喜、怒、憂、思、悲、恐、驚),六欲(眼、而、鼻、舌、身、意),從佛家角度來看還會有(貪、嗔、癡)等等多種情緒以及復雜的情感,人工智能產(chǎn)品在自主選擇方面具有與人類相同的能力,但是人工智能產(chǎn)品卻無法感知人類的情感、情緒,也感受不到?jīng)]有人類具備的生理條件,因此人工智能產(chǎn)品不能稱其真正的具有人類般的理性,說到底人工智能產(chǎn)品還是通過人類編寫的程序來實施行為,并沒有經(jīng)過的思考、權(quán)衡利弊,也不會受到人類情感的影響,從根本上來說人工智能產(chǎn)品還不具備與人同等的法律主體資格。3.2人工智能產(chǎn)品未來的發(fā)展可能人工智能的研究日新月異,未來人工智能可能會生產(chǎn)出具有類似生物大腦的人工智能機器人,人工智能在隱性智慧方面也有可能有突破性進展,一旦具有了自主發(fā)現(xiàn)問題并突破問題的能力,人工智能產(chǎn)品將會實現(xiàn)真正的自主,可能會出現(xiàn),人工智能越來越像人類,并且超越人類,那樣不賦予其法律主體地位似乎也不合理,然而人工智能具有超強的智力也便有了巨大的危險,科技或許能創(chuàng)造出來與人類一樣有情感、有思維的人工智能機器,但是這在倫理學與哲學上來說將給人類帶來巨大的沖擊,目前人工智能產(chǎn)品只是人類用來達到目的工具,但是一旦人工智能產(chǎn)品擁有了與人一樣的智慧,思想,甚至于高于人類的智慧,那人工智能產(chǎn)品是否具有法律主體資格已經(jīng)不重要,也就是說人工智能產(chǎn)品與人類之間實現(xiàn)自治是不會實現(xiàn)的,正如人類與動物一樣,人類是不會和人類實現(xiàn)自治的,這便有了一部分學者對以后產(chǎn)生了擔憂,真的到了那一天,面對人工智能對于人類的挑戰(zhàn)甚至威脅,就算人工智能產(chǎn)品不會威脅到人類的生存,但是也會影響到我們根本的生活方式。人工智能是否具備法律主體地位的必要條件4.1法律地位的概念4.1.1法律地位主要是對法律主體和法律客體的一種定位,主體和客體也是在民法中區(qū)分人物的基本條件,具有精神。意識存在的即為人,反之則為物,一個對象,只能是法律主體或者法律客體,不能存在于兩者之間的狀態(tài),因此討論人工智能的法律地位,應該從其是否具有法律主體資格開始討論。4.1.2法律主體作為法學上的一個重要范疇,這是一個源于人的尊嚴、人格而形成的重要理論范疇,是對人本質(zhì)的一種法律抽象。如杜茲鈉所說:道德哲學與法理學都假設了一個自主自律的主體,“自主”意味著人的理想與人的目的性,在法律上必須假定人們能夠為自己安排合理的生活計劃,理性的進行法律上的行為;法律主體這一概念并不是建立和限定在法律經(jīng)驗之上的,“而是具有邏輯必然性的、普遍適用的法學觀察之范疇”,借著這一范疇,一個法律行為的背后必然隱含著一個有著自我目的的人,他的行為不是任意的、隨性的,而是在自我意識的支配下做出的一種相對合理的判斷和合理選擇,人類可能做出的違法甚至犯罪的行為,但是從主體性來看,該類行為仍然視為當事人深思熟慮的行為,換句話說,該行為是通過行為人經(jīng)過權(quán)衡利弊以后,所做出一種對其有利的的行為,在做出這種行為之前,他就可能意識到自己的行為可能承擔的責任,因而對他加注法律責任的制裁,并沒有真正拂逆他的本意,作為一個承載人尊嚴的法律主體,不能推諉自身所應當承受的責任。4.2人工智能產(chǎn)品的法律地位目前人工智能產(chǎn)品高度自主,并有不斷脫離人類控制的趨勢,現(xiàn)在給具有類似人類“思維、意識、精神”的人工智能產(chǎn)品已經(jīng)成為一個現(xiàn)實問題,當“思維、意識、精神”不在是人類專屬標簽,似乎傳統(tǒng)觀念中的法律主體與客體之間的不可改變關(guān)系要被動搖,但是筆者現(xiàn)在認為,以現(xiàn)在人工智能產(chǎn)品的發(fā)展水平來打破傳統(tǒng)法律中主客觀關(guān)系為時尚早,人工智能產(chǎn)品近幾年的產(chǎn)品確實有不少的進步,但是距離擁有與人同等的“精神、思維、意識”還有很長的一段路要走。4.2.1人工智能產(chǎn)品是否具有法律主體地位的資格賦予人工智能產(chǎn)品以法律主體資格并無實際的益處,讓人工智能產(chǎn)品能擁有類似法人的法律主體地位也無不可,可以賦予個別人工智能產(chǎn)品電子人格,讓其享受應有的權(quán)利和義務,也承擔其行為造成侵害時的法律責任,還包括其造成損失的賠償責任,這樣人們擔心的問題就能很好地解決,目前人工智能產(chǎn)品面對的法律問題主要是以人工智能創(chuàng)造物的歸屬問題、人工智能產(chǎn)品損害他人利益時所應當承擔賠償責任以及法律責任問題。然而賦予人工智能法律主體地位,對于解決這兩個問題本身并沒有什么益處。4.2.2人工智能產(chǎn)品現(xiàn)有的發(fā)展階段隨著人工智能技術(shù)的不斷成熟,人工智能產(chǎn)品本身創(chuàng)造出了不少作品,人工智能技術(shù)的不斷廣泛應用,人工智能創(chuàng)造物的歸屬問題也就成為了受人關(guān)注的法律問題,但如果人工智能創(chuàng)造物的歸屬權(quán)歸于人工智能產(chǎn)品,那也就是默認了人工智能產(chǎn)品的法律主體地位,但是情況卻并非如此,在我國對于人工智能創(chuàng)造物的觀點不一,北京工業(yè)大學文法學部孫玉榮教授,認為應當對人工智能創(chuàng)造物加以保護,避免人類竊取人工智能創(chuàng)造物的可能,他孫玉榮教授認為:‘人工智能創(chuàng)造物實際上還在著作法的保護框架內(nèi),它屬于科學藝術(shù)的“獨創(chuàng)性”表達,而且是可以復制的,孫玉榮教授說:“人工智能創(chuàng)造物”從制作過程中,大量儲備的文本語料和加工合成的語言模型本身就包含了人類的創(chuàng)造性勞動,像微軟的“小冰”就是學習了自1926年以來500多位詩人的現(xiàn)代詩,經(jīng)過上萬次訓練才會寫詩的;2016年歐盟法律事務委員會向歐盟委員會提出一個建議,就是要界定人工智能“獨立的智力創(chuàng)造”標準;但是也有一部分人看法不同,比如美國版權(quán)局一直拒絕將“機器”創(chuàng)作的作品加以登記,其理由是:“版權(quán)的保護并非最終的用途、審美價值、以及產(chǎn)生的利益,更重要的還有人類個性的存在”;國內(nèi)不少學者對于人工智能的看法都傾向于不認同人工智能產(chǎn)品的創(chuàng)造物歸于人工智能產(chǎn)品,比如曹源認為人工智能創(chuàng)造物獲得版權(quán)保護具有合理性,但是人工智能本身目前不享有獨立的法律人格,其仍然屬于機械的一種;筆者的個人觀點認為,人工智能產(chǎn)品并不具備法律主體地位,但是人工智能產(chǎn)品研發(fā)者具有法律主體地位,應該將人工智能產(chǎn)品的創(chuàng)造物定位為設計版權(quán)的衍生物,歸研發(fā)設計者所有,也避免了人工智能產(chǎn)品的創(chuàng)造物,被一些居心不良的人所抄襲、利用。綜上所述,國內(nèi)外的理論與實踐多數(shù)不認同人工智能產(chǎn)品的創(chuàng)造物歸屬于人工智能,即人工智能產(chǎn)品私法主體地位不被認可,但是目前為止所生產(chǎn)的人工智能產(chǎn)品應該被作為知識產(chǎn)權(quán)的產(chǎn)物,其中也包括人工智能產(chǎn)品所創(chuàng)造的創(chuàng)造物,都應將人工智能產(chǎn)品視為知識產(chǎn)權(quán)產(chǎn)物被保護。4.2.3賦予人工智能產(chǎn)品主體地位的弊端賦予人工智能主體地位無益于人工智能損害賠償責任承擔問題的解決,深度學習的技術(shù)賦予了人工智能產(chǎn)品自主學習的能力,也促進了高度自主人工智能的發(fā)展,這樣也引發(fā)了一些法律學者關(guān)于如何規(guī)制這類人工智能產(chǎn)品,一部分學者指出:人工智能產(chǎn)品發(fā)生侵權(quán)事件時,由生產(chǎn)者承擔侵權(quán)責任,已經(jīng)無法應對當前所發(fā)生的人工智能侵權(quán)問題;比如2016年11月在深圳舉辦的第十八屆中國國際高新技術(shù)成果會上,一臺名為“小胖”的機器人突然發(fā)生故障,在沒有指令的情況下,自行砸壞部分展臺,并導致一人受傷;就此案例來說,由生產(chǎn)廠家承擔責任似乎不足夠具備說服力;人工智能機器人因受程序控制,在行為過程中是否是否負擔起所發(fā)生的責任,還是有人工智能產(chǎn)品所有者來承擔責任值得討論。而且在現(xiàn)在人工智能產(chǎn)品在高速發(fā)展,高度自主的人工智能機器人可以脫離人類的控制,打破人類預先設置的好的程序而自己行動。以產(chǎn)品缺陷這種理由讓生產(chǎn)者承擔責任,難以在侵權(quán)法上得到認證。歐盟國家對于人工智能產(chǎn)品的立法主張,讓人工智能產(chǎn)品成為“電子人”,著眼于如何讓一臺機器為其行為或者行為疏忽承擔部分責任或者全部責任。但是將責任劃分給沒有人格的電子產(chǎn)品,筆者無法認同,由人工智能產(chǎn)品承擔責任,而讓研發(fā)者和生產(chǎn)者置身事外,看似是完善了承擔責任的制度,但是筆者認為,這大大增加了研發(fā)者和生產(chǎn)者逃避責任的機會,研發(fā)者和生產(chǎn)者可能會將未進行測試的產(chǎn)品投入市場,也將進一步的引發(fā)市場的惡性競爭,不利于人工智能產(chǎn)品的良性發(fā)展;如果給予人工智能產(chǎn)品以主體地位,讓其與研發(fā)者、生產(chǎn)者、銷售者、使用者等主體共同承擔責任,但人工智能產(chǎn)品不會出現(xiàn)人類意義上所犯的錯誤,而且需要技術(shù)手段鑒定明確其行為性質(zhì),再者人工智能產(chǎn)品并不具備有人格性,也不具備人類情感,同時人工智能產(chǎn)品歸屬不明確,且沒有獨立財產(chǎn),無法執(zhí)行賠償,也無法進行賠禮道歉等非財產(chǎn)性賠償,到最后所承擔的責任依然要歸屬于傳統(tǒng)意義上的私法主體。人工智能產(chǎn)品確定非主體地位的合理性5.1關(guān)于人工智能產(chǎn)品立法討論自人工智能出現(xiàn)以來,對于其立法的討論就層出不窮,但唯一不變的是關(guān)于人工智能法律地位之爭,所有的觀點都是關(guān)于如何規(guī)制人工智能產(chǎn)品的,起初人工智能產(chǎn)品就是人類為了達到一定目的而生產(chǎn)出來的機器,最原始的地位即為物,就此而已賦予人工智能產(chǎn)品主體地位已經(jīng)是打破常規(guī),但是以目前人工智能產(chǎn)品的發(fā)展狀況,打破這種常規(guī)將導致人類法律制度以及人工智能產(chǎn)品產(chǎn)業(yè)兩方面的無所適從,作為人類三大重點自然科學創(chuàng)新領域,人工智能未來的發(fā)展還有許多的不確定性,以現(xiàn)在所研發(fā)生產(chǎn)出來的人工智能產(chǎn)品,還遠遠沒有達到具有法理并且可以再法律條文中規(guī)范的標準,若現(xiàn)在賦予其為法律主體將顛覆法律主體的概念,因為法律主體概念涉及到我們生活的方方面面,如果法律主體概念被顛覆將引起社會關(guān)系的動蕩,對于人工智能產(chǎn)品,法律應該做到對其發(fā)展進行規(guī)制,在道德上對其進行約束,以此來實現(xiàn)人工智能的健康發(fā)展,如果直接賦予其法律主體地位,不僅會導致法學理論與制度的顛覆,也不利于人工智能產(chǎn)品的健康的發(fā)展,因此在法律地位上,我們應將人工智能產(chǎn)品視為法律關(guān)系中的客體地位,并根據(jù)人工智能產(chǎn)品的不同智能程度對其進行分別制定相應規(guī)則,只有這樣才能時人工智能健康發(fā)展并有效的利用。5.1.1人工智能產(chǎn)品立法面臨的問題人工智能作為法律主體將面臨很多的困難,法律由人制定,制定的跟規(guī)則是根據(jù)人類的行為,來制定適用于人類的行為標準,人因為有思維、理性才能夠制定法律并遵守自己所立的法律;但是人工智能產(chǎn)品是由人類生產(chǎn)出來的,它只能按照所設定好的程序來執(zhí)行命令,無法像人類一樣理性思考,也不會理解如何去遵守法律,即使在程序上輸入法律,人工智能產(chǎn)品也只會按照程序的指令去行動,而無法主觀的去遵守、利用法律。就此而言對于人工智能產(chǎn)品在侵權(quán)時的行為時是否具有主觀性就無法判斷,那么賦予其主體責任也就無法有效實行,或許是將某些人的意志賦予到人工智能機器上也未可知,因此這將導致在認定是侵權(quán)還是犯罪上陷入困境,人工智能產(chǎn)品也就成為了“偽主體”,一定要把人工智能產(chǎn)品作為法律主體的話,則需要先對人的行為進行規(guī)制,說到底也就對人進行規(guī)制,才能從根本上使人工智能處于人類法律的規(guī)制之下。目前人工智能發(fā)展迅速,日新月異且種類繁多,人工智能產(chǎn)品之間也存在著很大的差異,比如我們?nèi)粘K玫膾叩貦C器人,對于此類產(chǎn)品,適用于普通產(chǎn)品的法律規(guī)制就可以,而對于一些擁有自主能力的人工智能產(chǎn)品,我們應該根據(jù)其特殊性對其制定特別的法律對其進行規(guī)制,所謂自主人工智能產(chǎn)品指的是與人類密切接觸,具有更高的智力水平,有的還具有類人一樣的形態(tài)和工具,其不同于自動駕駛汽車狀態(tài);對于該種智能產(chǎn)品應該對其進行特殊法律規(guī)制。其次,人工智能產(chǎn)品從被研發(fā)到發(fā)展到現(xiàn)在的地步,其根本目的是為了實現(xiàn)人類改造世界的目的,做為法律客體符合人類對于人工智能產(chǎn)品的期望,最起初別將人工智能產(chǎn)品定位為物,有利于人類支配人工智能產(chǎn)品的實現(xiàn),相反,人工智能產(chǎn)品定位為法律主體將偏離人類預期的目的,賦予其人工智能法律主體地位意味著其將享受與人同等的法律權(quán)利和義務,也就意味著,人工智能產(chǎn)品可以向人了提出要求,這將不利于人類對與人工智能的管理,況且以目前人工智能的發(fā)展狀況,其尚不具備承擔法律主體資格的能力,具備法律主體的人工智能產(chǎn)品有兩種可能性,一種是成為少數(shù)人實現(xiàn)自身目的工具,還有一種,人工智能產(chǎn)品發(fā)展成具有人類理性思考能力,從而站在人類的對立面;無論哪種結(jié)果都不是人類最起初的目的。人工智能產(chǎn)品侵權(quán)責任主體的認定6.1人工智能產(chǎn)品的侵權(quán)主體認定人工智能產(chǎn)品是人類通過科學技術(shù)與工業(yè)技術(shù)所產(chǎn)生出來并按人類預先設置好的系統(tǒng)所行動的產(chǎn)品,并且人工智能產(chǎn)品在工作時,基本是在無人或者少人下進行的,因此人工智能產(chǎn)品在發(fā)生侵權(quán)行為時就具有一定的特殊性,但是與一般產(chǎn)品造成的侵權(quán)行為也有特殊性,正如前文所述,人工智能產(chǎn)品是設計者提前完成,然后找廠家生產(chǎn)、產(chǎn)品出廠以后按照人預先設計好的程序進行服務,在使用過程中按找提前設定好的程序下達指令,按照這個邏輯順序,可以按照產(chǎn)品的研發(fā)者、產(chǎn)品的生產(chǎn)者、產(chǎn)品的銷售者、產(chǎn)品工作時的操作者等順序,對人工智能產(chǎn)品發(fā)生侵權(quán)行為時的責任進行具體劃分。6.1.1人工智能產(chǎn)品的研發(fā)者人工智能產(chǎn)品研發(fā)是人工智能產(chǎn)品所能出現(xiàn)在市場的第一環(huán)節(jié),也是最重要的一個環(huán)節(jié),人工智能產(chǎn)品研發(fā)的質(zhì)量直接影響了后期使用的安全性以及穩(wěn)定性,在這個環(huán)節(jié)里,每錯一步都將會增加后期使用過程中發(fā)生侵權(quán)的風險,在研發(fā)過程中應該嚴格按照國家質(zhì)量體系標準進行,并且在研發(fā)過程中進行多次試驗,確保安全風險降到最低,對于因在設計研發(fā)過程的缺陷而發(fā)生侵權(quán)事件,應按照《中華人民共和國產(chǎn)品質(zhì)量法》依法追究責任,情節(jié)嚴重,應按照《中華人民共和國刑法》追究其刑事責任。6.1.2人工智能產(chǎn)品的生產(chǎn)者產(chǎn)品質(zhì)量安全的生產(chǎn)一直是我國重視的問題,可以預見的是,人工智能產(chǎn)品也避免不了要討論這個話題,目前市面上的人工智能產(chǎn)品大部分屬于商品,所以應該用《產(chǎn)品質(zhì)量安全法》對人工智能產(chǎn)品的研發(fā)以及生產(chǎn)過程進行監(jiān)督管理,對于產(chǎn)品質(zhì)量產(chǎn)生的侵權(quán)責任問題應當按照質(zhì)量管理體系認證、產(chǎn)品監(jiān)督檢查制度以及嚴格的責任制度等方式來保證生產(chǎn)過程中的質(zhì)量把控,而且人工智能產(chǎn)品不同于其他普通商品,人工智能產(chǎn)品在使用時缺乏人的看管,使用過程中難以認為難以親自控制,因此對于生產(chǎn)過程中的質(zhì)量的把控要更加嚴格,除了嚴格按照《中華人民共和國產(chǎn)品質(zhì)量法》生產(chǎn)以外,還要嚴格把控生產(chǎn)過程,確定生產(chǎn)材料的質(zhì)量、生產(chǎn)過程的嚴謹、以及嚴謹?shù)陌踩a(chǎn),如果因為生產(chǎn)過程不嚴格而發(fā)生了侵害他人的合法權(quán)益,應當由生產(chǎn)廠家承擔相應的責任。6.1.3人工智能產(chǎn)品的銷售者產(chǎn)品銷售者主要輔助對于產(chǎn)品的保管、銷售的義務,如果因為銷售者保管不當,人工智能產(chǎn)品受損并且銷售出去或者一些不法商人銷售假冒偽劣的人工智能產(chǎn)品,直接或者間接的造成他人的權(quán)益被損害后,應當由銷售者承擔侵權(quán)責任。6.1.4人工智能產(chǎn)品工作期間的操作者對于人工智能產(chǎn)品在使用期間造成的侵權(quán)行為,是相對復雜并且難以確定責任的問題,因為人工智能產(chǎn)品相對特殊,因為人工智能產(chǎn)品的自主性,在使用前設定好程序,所以在使用過程中無法確定操作者和使用者,甚至在機器發(fā)生故障時可能沒有操作者,但是對于操作者和使用者不代表無法追責,由于人工智能產(chǎn)品的特殊性,使用過程中無人看守,因此對于操作者和使用者的歸責必須強調(diào)存在過失,主要調(diào)查操作者和使用者在使用過程是否違反技術(shù)規(guī)范行為,是否盡到應盡的注意義務和維修保養(yǎng)義務;而且需要強調(diào)的是,人工智能產(chǎn)品不同于其他普通產(chǎn)品,因為人工智能產(chǎn)品的特殊性,更需要注意日常使用的操作事項,但是因在使用過程中因程序產(chǎn)生故障并造成嚴重后果,需查明故障的真實性后,由生產(chǎn)者和研發(fā)者共同承擔責任。人工智能產(chǎn)品違法侵權(quán)行為的認定人工智能產(chǎn)品雖不

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論