【法律研究】人工智能中的算法與法治公正_第1頁(yè)
【法律研究】人工智能中的算法與法治公正_第2頁(yè)
【法律研究】人工智能中的算法與法治公正_第3頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余3頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

【計(jì)算機(jī)論文】【法律研究】人工智能中的算法與法治公正

(電子商務(wù)研究中心訊)人工智能的法治之路必須體現(xiàn)憲法所保障的個(gè)人的基本權(quán)利,以及公開(kāi)、透明等程序性基本要求。法律必須確保算法的可追溯性,賦予人工智能技術(shù)研發(fā)者程序可解釋性的義務(wù),通過(guò)強(qiáng)化法律人員和技術(shù)人員的互動(dòng)融合實(shí)現(xiàn)算法公正。人工智能本質(zhì)上是一種建立在大數(shù)據(jù)基礎(chǔ)上的自我學(xué)習(xí)、判斷和決策的算法,其在類案類判、智慧檢務(wù)建設(shè)等司法系統(tǒng)的“技術(shù)革命”中起著重要作用。美國(guó)還將算法模型應(yīng)用到量刑、保釋、假釋等決策中,引發(fā)社會(huì)廣泛關(guān)注。例如,康斯威星州Statev.Loomis案件中,被告認(rèn)為州法院使用Compas算法模型量刑違反了正當(dāng)程序原則,其決策的準(zhǔn)確性、透明性都有待檢討,遂向州最高法院上訴。在科技革命撲面而來(lái)的當(dāng)下,人工智能技術(shù)在法律檢索、風(fēng)險(xiǎn)評(píng)估等法治進(jìn)程中的應(yīng)用需要認(rèn)真對(duì)待。一、美麗的誤解:算法默認(rèn)是公平的建立在算法模型基礎(chǔ)上的人工智能給社會(huì)生活帶來(lái)巨大便利,如網(wǎng)絡(luò)約車(chē)、區(qū)塊鏈、互聯(lián)網(wǎng)金融等帶來(lái)了社會(huì)進(jìn)步,但其潛在的弊端不容忽視。2016年哈佛大學(xué)肯尼迪學(xué)院發(fā)布的分析報(bào)告指出,目前針對(duì)犯罪傾向性預(yù)測(cè)的人工智能系統(tǒng),無(wú)論技術(shù)人員如何調(diào)整機(jī)器學(xué)習(xí)的策略和算法,人種和膚色都成為無(wú)法抹去的高優(yōu)先識(shí)別變量。那么看似技術(shù)中立的算法為什么會(huì)產(chǎn)生歧視?算法本質(zhì)是互聯(lián)網(wǎng)的編程技術(shù),但這種編程技術(shù)絕非中立。谷歌公司的數(shù)碼相冊(cè)軟件將深色皮膚的人標(biāo)記為大猩猩,展示了科技錯(cuò)誤如何轉(zhuǎn)變成傷害,進(jìn)而導(dǎo)致社會(huì)不安與仇恨。正如這里所示,算法歧視在很多情況下是難以預(yù)料的、無(wú)意識(shí)的副產(chǎn)品,而非編程人員有意識(shí)的選擇,更增加了識(shí)別問(wèn)題根源或者解決問(wèn)題的難度。那么算法歧視是如何出現(xiàn)的?首先,算法結(jié)果建立在其所使用的基礎(chǔ)數(shù)據(jù)之上,基礎(chǔ)數(shù)據(jù)的不完善將直接影響算法輸出的科學(xué)性。數(shù)據(jù)本應(yīng)是社會(huì)現(xiàn)實(shí)的反映,但如果編程數(shù)據(jù)本身不正確、不完整或過(guò)時(shí),輸出的結(jié)果則會(huì)以偏概全。我國(guó)的裁判文書(shū)上網(wǎng)制度有待完善,各省關(guān)于類案類判制度的試點(diǎn)也還存在“數(shù)據(jù)孤島”等“先天不足”,這不可避免地會(huì)損害算法輸出結(jié)果的公平性。其次,算法的設(shè)計(jì)、目的、成功標(biāo)準(zhǔn)、數(shù)據(jù)使用體現(xiàn)了設(shè)計(jì)者、開(kāi)發(fā)者的主觀選擇,他們可能將自己的偏見(jiàn)嵌入算法系統(tǒng),這導(dǎo)致算法繼承了人類決策者的種種偏見(jiàn)。第三,算法決策是在用過(guò)去預(yù)測(cè)未來(lái),而過(guò)去的歧視可能會(huì)在算法中得到鞏固并在未來(lái)得到加強(qiáng),因?yàn)殄e(cuò)誤輸入形成的錯(cuò)誤輸出作為反饋,將進(jìn)一步加深錯(cuò)誤。第四,算法決策不僅會(huì)將過(guò)去的歧視做法代碼化,而且會(huì)創(chuàng)造自己的現(xiàn)實(shí),形成一個(gè)“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”。二、算法歧視的治理難點(diǎn)人工智能的算法決策具有典型的“黑箱”特點(diǎn),連設(shè)計(jì)者可能都不知道算法如何決策,要在系統(tǒng)中發(fā)現(xiàn)有沒(méi)有存在歧視和歧視根源,在技術(shù)上非常困難。如果按照現(xiàn)有的法律責(zé)任規(guī)則,由于系統(tǒng)的自主學(xué)習(xí)、決策能力很強(qiáng),它的開(kāi)發(fā)者無(wú)法預(yù)測(cè)最終將輸出什么結(jié)果,那么黑箱的存在難以查找事故原因,將不可避免地產(chǎn)生責(zé)任鴻溝。除了如何通過(guò)設(shè)計(jì)確保算法和人工智能系統(tǒng)的公平性外,算法的治理難點(diǎn)還有以下方面。首先,法律工具主義思維盛行。工具主義是指將各種科技成果視為解決人類問(wèn)題、增強(qiáng)人類能力的工具,其在法律領(lǐng)域是實(shí)用主義法律觀的體現(xiàn)。電腦量刑、類案類判輸出的結(jié)果之所以往往為民眾質(zhì)疑,是因?yàn)橹恢v手段不問(wèn)目的的工具主義割裂了法律和道德的關(guān)系,導(dǎo)致輸出結(jié)果無(wú)法取得社會(huì)認(rèn)同。工具理性取代價(jià)值理性的弊端在現(xiàn)代化早期已經(jīng)暴露無(wú)遺了,技術(shù)本身并不是目的,也無(wú)法自動(dòng)形成自己的目的。其次,算法的透明性問(wèn)題難以公開(kāi)。算法的輸出是“黑箱”過(guò)程,即便人工智能最終的應(yīng)用出現(xiàn)嚴(yán)重后果,算法的過(guò)程也無(wú)從得知。人們無(wú)法判斷損害到底如何造成、更不清楚算法本身是如何編寫(xiě)的。對(duì)于掌握先進(jìn)科技的企業(yè)而言,算法往往屬于企業(yè)的“商業(yè)秘密”,是受到法律名正言順保護(hù)的“黑箱”。當(dāng)利用犯罪風(fēng)險(xiǎn)評(píng)估軟件對(duì)犯罪嫌疑人進(jìn)行評(píng)估時(shí),決定司法判決結(jié)果的就不再是規(guī)則,而是代碼。而編程人員將既定規(guī)則寫(xiě)進(jìn)代碼時(shí),不可避免地會(huì)對(duì)這些規(guī)則進(jìn)行調(diào)整,但公眾、官員以及法官并不知曉,無(wú)從審查嵌入到自主決策系統(tǒng)中的規(guī)則的透明性、可責(zé)性以及準(zhǔn)確性。在缺乏必要的問(wèn)責(zé)機(jī)制的情況下,無(wú)法矯正的算法歧視對(duì)刑事司法是一種嘲諷。第三,運(yùn)用法律規(guī)制算法歧視在操作層面還需考慮以下方面:第一,公平可以量化、形式化嗎?如何被翻譯成操作性的算法?第二,公平被量化為計(jì)算問(wèn)題會(huì)帶來(lái)風(fēng)險(xiǎn)嗎?第三,如果公平是機(jī)器學(xué)習(xí)和人工智能的目標(biāo),誰(shuí)來(lái)決定公平的考量因素?第四,如何讓算法、機(jī)器學(xué)習(xí)、人工智能具有公平理念,自主意識(shí)到數(shù)據(jù)挖掘和處理中的歧視問(wèn)題?三、通向公正的算法規(guī)制法律只有能夠以直觀、明確的方式對(duì)人工智能的決策進(jìn)行追蹤,才能夠保證人工智能在合法軌道上運(yùn)行。如果算法繼續(xù)保持神秘并且人工智能公司的重心始終圍繞利潤(rùn)而非公正與平等,那么人工智能將很難取得公眾對(duì)其在司法應(yīng)用中的信任。發(fā)展人工智能為了促進(jìn)社會(huì)進(jìn)步,法治公正需要考慮技術(shù)革新和權(quán)力結(jié)構(gòu)變化所帶來(lái)的新問(wèn)題。2016年英國(guó)下議院科學(xué)和技術(shù)委員會(huì)發(fā)布《機(jī)器人與人工智能》,特別強(qiáng)調(diào)決策系統(tǒng)透明化對(duì)于人工智能安全和管控的作用。世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)也發(fā)布關(guān)于機(jī)器人倫理的初步草案報(bào)告,提出應(yīng)當(dāng)在機(jī)器人及機(jī)器人技術(shù)的倫理與法律監(jiān)管中確立可追溯性,保證機(jī)器人的行為及決策全程處于監(jiān)管之下。首先,對(duì)人工智能的法律治理中,必須確立可追溯性原則,才能讓機(jī)器人行為決策全程處于監(jiān)管之下。如此一來(lái),人類的監(jiān)管機(jī)構(gòu)不僅能夠理解智能機(jī)器人的思考決策過(guò)程以及作出必要的修正,而且能夠在特定的調(diào)查和法律行動(dòng)中發(fā)揮其本應(yīng)有的作用。只有保證人類能夠全面追蹤機(jī)器人思考及決策的過(guò)程,我們才有可能在監(jiān)管機(jī)器人的過(guò)程中占據(jù)主動(dòng)權(quán),或者在出現(xiàn)問(wèn)題的時(shí)候進(jìn)行全面的追蹤調(diào)查。其次,立法應(yīng)將透明、公開(kāi)、程序合法、說(shuō)明理由等義務(wù)賦予人工智能研發(fā)機(jī)構(gòu),使算法等技術(shù)化的監(jiān)控和決策手段不再是無(wú)法被問(wèn)責(zé)的“黑箱”,同時(shí)構(gòu)建技術(shù)公平行業(yè)規(guī)范,通過(guò)設(shè)計(jì)保障公平的實(shí)現(xiàn),通過(guò)技術(shù)正當(dāng)程序來(lái)加強(qiáng)自主決策系統(tǒng)中的透明性、可責(zé)性以及被寫(xiě)進(jìn)代碼中的規(guī)則的準(zhǔn)確性。例如,谷歌大腦團(tuán)隊(duì)公布了“可解釋性的基礎(chǔ)構(gòu)件”的研究成果,將算法比喻成“人工神經(jīng)網(wǎng)絡(luò)的核磁共振成像”,這種開(kāi)源化處理使得其他技術(shù)人員能夠在此基礎(chǔ)上編寫(xiě)適用于不同算法和場(chǎng)景的解釋性算法。第三,需要加強(qiáng)法律和技術(shù)的融合發(fā)展,確保法律人員能夠理解、掌握算法的原理和應(yīng)用。法律規(guī)制算法不能僅依靠立法者和規(guī)制者的單方面努力,而需要法律人與技術(shù)人員的合作。通過(guò)法律人向技術(shù)人員解釋法律規(guī)則的要求,技術(shù)人員根據(jù)要求設(shè)計(jì)出符合法律要求的算法——法律技術(shù)工程師這一職業(yè)正在悄然興起。人工智能方興未艾之際,法律應(yīng)正視并矯正算法歧視,促進(jìn)人工智能健康、合法地發(fā)展。大數(shù)據(jù)、算法以及人工智能的應(yīng)用與人的命運(yùn)息息

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論