【《加強人工智能倫理道德建設規(guī)范建議》7400字】_第1頁
【《加強人工智能倫理道德建設規(guī)范建議》7400字】_第2頁
【《加強人工智能倫理道德建設規(guī)范建議》7400字】_第3頁
【《加強人工智能倫理道德建設規(guī)范建議》7400字】_第4頁
【《加強人工智能倫理道德建設規(guī)范建議》7400字】_第5頁
已閱讀5頁,還剩2頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

加強人工智能倫理道德建設規(guī)范建議目錄TOC\o"1-3"\h\u10978加強人工智能倫理道德建設規(guī)范建議 128996第一節(jié)確立人工智能的價值取向 111359一、秉持以人為本原則 124320二、堅持公平與正義 27043第二節(jié)建立人工智能倫理道德規(guī)范 431666一、禁止技術先于倫理 48494二、禁止傷害人類安全 52323三、禁止隱瞞與保密 52313第三節(jié)人工智能倫理道德規(guī)范的實現路徑 624613一、樹立正確的人工智能倫理觀念 67180二、加強人工智能倫理風險防范教育 64625三、創(chuàng)建多主體互動的交流監(jiān)督平臺 7第一節(jié)確立人工智能的價值取向技術并無正面與負面的區(qū)別,科學的發(fā)展也總是趨向于對社會有力的方向,但技術本身卻必定存在一定的善惡利弊。自由、公平與正義作為三張目前人類的普世價值觀,在人們生活的方方面面中,默默地影響著人類意識形態(tài)。隨著人工智能從弱人工智能到強人工智能,人與智能機器越來越交融,在設計人工智能的過程中,設計者會將一定的價值觀轉化為算法植入人工智能中,由此形成一套屬于人工智能的價值取向與道德標準。因此,只有正確認識人工智能的價值取向,才能更好讓人工智能無論處于哪個階段,其目的都是造福人類并為社會創(chuàng)造更多的價值。一、秉持以人為本原則人們在一開始制造人工智能的目的是為了減少人類的勞動,為社會的建設貢獻力量,因此技術是基于人展開的,服務人類,為社會創(chuàng)造價值也是人工智能的本質,且“以人為本”一直是人類社會所秉承的價值觀點。因此,智能技術應該始終秉持以人為本的原則,一方面,我們對人工智能持開放態(tài)度,不應全盤否定,抗拒技術的發(fā)展,這樣最終會阻礙社會進步;另一方面,也要杜絕人工智能危害人類的可能性。智能機器的一切目的都應該是以人為中心,確保人類在其職能范圍內可以有尊嚴和有質量的生活。新的工業(yè)革命將從多個方面對工業(yè)產生干煸,其將道德賦予機器本身,并潛移默化改變人類的價值觀?!稓W盟憲章》在行為準則中有機器人或人工智能的相關定義,即尊重并保護該有的人權,其中包括安全,隱私和尊嚴。人工智能的目的是為了人類利益的最大化,并在總體的執(zhí)行過程中保護好人類。如果是無法規(guī)避的風險則要求盡可能減少對人類的傷害。目前,人與人工智能是一種互相融合,互相交融的發(fā)展模式,這種發(fā)展模式影響著長久以來基于人與人之間的道德關系,對其造成較大的沖擊。因此,為了適應當前新時代的發(fā)展,我們應該一定程度摒棄舊有的道德關系,在人工智能大環(huán)境下,構建一種新型的人與人之間的道德關系,可以進一步促進人與人工智能的和諧相處,共同發(fā)展。由此可知,人工智能背景下的人與人之間的關系應是一種彼此分享,共同成長的關系,一種相互合作、你中有我,我中有你的和諧關系。這就要求我們在對待涉及人工智能技術的方面,要把“以人為本”始終放在最高地位上,要以實現人的自由全面發(fā)展為最高目標。為了達到這個目的,首先我們要脫離人工智能對人的束縛,并擺脫對人工智能非理性的推崇,從始至終維護人類自身尊嚴。與此同時,打鐵還需自身硬,在大力發(fā)展人工智能技術時,作為人類主體也應全面發(fā)展,以人工智能為載體,使其與新時代相適應,進行相應的轉型升級。升級后將側重點放在人工智能與人的個性、意識、藝術創(chuàng)造等相融合,通過這樣展現人的多樣性,在展示過程中不斷完善,優(yōu)化自我。二、堅持公平與正義公正是人們的一種期待一視同仁、得所當得的道德直覺,也是一種對當事人的利益互相認可、并予以保障的理性約定。根據公正的定義,需要保證盡可能多的人從人工智能中獲益,盡可能多的人共享人工智能所創(chuàng)造的成果。人工智能產品并無階級之分,秉承平等共享的原則,共同享用。同時按照公正原則,在人工智能造福人類之前,首先必須完善相關制度,一方面抑制資本力量的過度干預,也防止“技術至上”思想的錯誤引導。在完善制度的同時,要健全社會福利和保障體系,扶持落后國家、地區(qū)的相關建設,救助弱勢群體,保障他們的尊嚴,維護權益的權益。人工智能研發(fā)的技術人員要秉承價值中立的原則,盡可能減少偏見??萍既藛T在技術上對人工智能有這更好的了解,所以他們可以對人工智能進行很好的價值引導,對可能造成的后果具有一定的預知性,因此在人工智能建設中,要注重相關技術人員的價值觀引導。在科研生活中,技術人員需要以較高的道德品質約束自己,對社會與產品負責,堅持為人類謀取福祉,對名利誘惑保持距離,堅守本心。正義是社會健康發(fā)展不可缺少的一部分,綜上所述,在人工智能設計之初,應該把社會整體的公平正義作為一個重要考慮因素人。其次,人工智能設計關注公平和正義的同時,應該不同主體之間權力與地位的差距,達到程序上的正義,但是結果上卻造成了不公平。羅爾斯提出:“所有值得我們注意的倫理學理論都須在判斷正當時考慮結果,不這樣做的倫理學理論是奇怪的和不可理喻的。”人工智能設計的倫理學在追求程序正義的同時,也應該追求技術結果的正義。根據康德和邊沁的正義論,正義指的并不是保證所有人的利益,而是保證大多數人的利益,其中可能損害少部分人的利益。人工智能的設計中要保證公正的原則,不為了某些特定個人或者群體,從而損失最廣大人類的整體利益,使最多數的人獲益;在國際立場上,人工智能的使用要忽略國家的差別,對于不同條件,背景的國家一視同仁,消除歧視,而不是作為政治手段實現強國對弱國的壓迫,從而加大貧富差距。最后,人工智能的宣傳和應用都應保證客觀性。程序正義約束著人類社會中的制度規(guī)范、司法決策和法律準則,也同樣約束著基于人工智能推薦算法的智能選擇。正如希特輪在其論文《技術正當程序》中所指出的:鑒于智能算法在人類社會中影響越來越多的決策,人們需要建構合理的人工智能技術公平規(guī)范體系,通過程序設計來約束人工智能對倫理道德的過渡干預,從而實現保公平,并通過程序正義來優(yōu)化人工智能推薦算法的透明性、解釋性。羅爾斯強調正義的制度健全,認為完善的制度是實現社會正義的重要保證。在發(fā)展人工智能的應用倫理時首先建立健全的制度:為人工智能制定相關的法律進行約束,由此細化到行業(yè)法律或地區(qū)法律,最終上升至國家甚至全球有強制力的公約,這些法律和制度都要考慮進去。遵循科技向“善”人工智能作為創(chuàng)新型驅動力量全力推動著社會文明的進步,人類享受于技術之善帶給生活的便利,生活方式得到轉變的同時,社會生產力也逐漸提高。然而,已指數型速度增長的人工智能,已經要從“弱人工智能”逐漸轉變?yōu)椤皬娙斯ぶ悄堋?,并在未來將會進入“超級人工智能”時代。雖然技術并無正面與負面之分,但是人工智能經過深度學習所形成的一些列深度學習終歸是由人類設計。倘若技術被冠以“惡”的價值觀,是否會對未來人類社會的文明發(fā)展產生潛在變革性的顛覆呢?例如,當強人工智能時代帶來之時,人類是否能與人工智能和諧共生;以及當超級人工智能來領之事,人類文明或許被超越,而到那時,智能機器又是否會將人類毀滅?這都是問題。因此,無論技術發(fā)展屬于那一階段,作為設計者、作為倫理學研究者都應該秉持科技向“善”??茖W技術在人類文明進步的歷程中終歸多是以工具屬性存在,而最根本一點則是設計者本身,即人性本身而言。倫理道德從自古以來于東西方先哲探討的最為深刻的便是“善”與“惡”。中國倫理思想史里最經典言論莫過于儒家學派中,孟子認為人性以“善”,而荀子則認為人性以“惡”,而這種惡也是可以通過后天改造而從善。西方倫理受基督教影響較大,多認為人性本惡,這也早就了后來的種種社會契約思想。人類在歷史場合中,始終都在與善惡博弈,但最終實踐證明,唯有向“善”,社會文明才會進步且穩(wěn)步前行?!吧啤迸c“惡”許多時候與社會公正掛鉤,而智能技術的“善”同樣也能促進大數據的分配公正,減少不必要的“數字鴻溝”。目前,人工智能雖然迅猛發(fā)展,然而由于政治、經濟、文化、宗教各種因素影響,國家與國家,地區(qū)與地區(qū)之間的并不能實現公平的數字資源分配。指數型速度發(fā)展的智能技術,在本不公平的社會中發(fā)展,只會進一步導致“數字”鴻溝現象的加劇。例如,我國東部沿海省市的智能化普及率、人才儲備能力遠領先于西部;發(fā)達國家對于人工智能的建設程度遠高于發(fā)展中國家。數字分配不均所造成的勞動力被智能替代現象,失業(yè)現象層出不窮,資本在這場信息戰(zhàn)中獲利,而普通勞動者的生活則亮起了紅燈。因此,堅持用“善”的原則來實現分配正義,才能做到真正彌補如今相對不公的“數字鴻溝”,各個地區(qū)與組織之間才能更加向“人類命運共同體”方向發(fā)展。總結而言,“全世界面臨著社會認同解體、價值利益沖突、主體組織對立、國家立場對峙、生態(tài)環(huán)境破壞等不確定因素,這些發(fā)展中的危機遍布全球,形成對人類生存的新威脅”。薛曉源,等.全球風險世界:現在與未來———德國著名社會學家的風險社會理論創(chuàng)始人烏爾里希·貝克教授訪談錄[J].馬克思主義與現實,2005(1)薛曉源,等.全球風險世界:現在與未來———德國著名社會學家的風險社會理論創(chuàng)始人烏爾里?!へ惪私淌谠L談錄[J].馬克思主義與現實,2005(1):44-55.

第二節(jié)建立人工智能倫理道德規(guī)范一、禁止技術先于倫理國際社會、行業(yè)協會應當通過商談達成道德共識,區(qū)分現階段的弱人工智能與未來可能發(fā)展的強人工智能,制定不同的研發(fā)與使用公約,確立行業(yè)發(fā)展倫理標準,并敦促相關法律法規(guī)出臺,通過道德調整與法律規(guī)制引導人工智能健康發(fā)展。現階段的弱人工智能作為工具價值與技術價值,本身并無危險,危險只存在人自身之中,可能使有益的、可控制的技術向有害的、無法控制的技術轉變。因此,弱人工智能是中立的,具有兩重性,本身沒有目的,它就在一切善惡之彼岸,既有可能有助于人類的幸福,又有可能給人類帶來災難。正因如此,它才需要加強引導,用倫理道德與法律來規(guī)范科學技術發(fā)展,制定現階段弱人工智能的研發(fā)與使用的倫理規(guī)范,確保“弱人工智能”為人類福祉而服務。倫理制度建設對于人工智能所產生的倫理問題是不可或缺的,“我們所體驗到的那種無能為力并不是個人失敗的標志,而是反映出我們的制度無能為力。我們需要重構我們曾經有過的這些制度,或者建立新的制度”。人工智能產品的研究與倫理制度的結合是應對人工智能倫理問題的最有效方式。倫理制度層面的建設應當包括人工智能的設計倫理以及人工智能的應用規(guī)范倫理。設計倫理旨在從源頭上保障人工智能產品的安全性,規(guī)范倫理是意在保障人工智能產品在應用過程中的安全性,兩者雖各有側重,但需同時進行。人工智能應用過程中的倫理制度規(guī)范一般是對人工智能的使用者而言的。當前,人工智能不再局限于是減輕人類勞動的工具,而開始成為一種滿足人類政治、經濟、社會、軍事需要的工具。在人工智能體不具備道德主體時,人工智能體的使用者就是一種道德主體,因而,對人工智能體的使用者制定合理的倫理制度規(guī)范是必要的。比如人工智能體的使用者不能為自身利益最大化而損害甚至是傷害其他人利益及健康安全,故此應當禁止人工智能應用于可能對人類及整個社會造成危害的領域。除了外在的倫理制度規(guī)約,人工智能使用者也應當注重自身的倫理責任意識培養(yǎng),這一方面需要人工智能使用者將人工智能道德制度規(guī)范內化為自身的主體信念;另一方面需要人工智能使用者加強自身道德修養(yǎng),提升自身責任意識。二、禁止傷害人類安全人工智能不得傷害人類,要保證人工智能系統(tǒng)的安全性、可適用性與可控性,保護個人隱私,防止數據泄露與濫用。保證人工智能算法的可追溯性與透明性,防止算法歧視。雖然現在已有部分積極開發(fā)人工智能技術的企業(yè),也意識到了人工智能技術潛在的安全和倫理問題,基于企業(yè)或企業(yè)家的價值觀提出了各自的原則。如美國微軟公司希望確保應用人工智能技術合乎倫理,提出人工智能的六項基本準則:公平、可靠與安全、隱私與保密、包容、透明、負責。谷歌公司首席執(zhí)行官桑達爾·皮查伊(SundarPichai)則通過其個人博客發(fā)表了“谷歌七原則”,分別是:對社會有益、避免制造或加劇不公平的偏見、建立并測試安全性、對人負責、保證隱私、堅持科學的高標準、從用途和技術獨特性及規(guī)模等方面來權衡應用。這些準則既為各自企業(yè)開發(fā)人工智能類應用提供了原則性思維方法,同時也或多或少存在對超人工智能這類新生物種的敬畏。三、禁止隱瞞與保密人工智能通俗來說是一件人工制品,因此其具有機器特性應該是公開透明的。目前,人工智能系統(tǒng)如何通過深度學習等手段得出某種結論,其中的具體過程在很大程度上我們不得而知,人工智能的決策過程在想當程度上是一種看不見的“黑箱”。我們很難理解智能系統(tǒng)如何看待這個世界,智能系統(tǒng)也很難向我們進行解釋。哥倫畢業(yè)大學的機器人專家利普森(HotLipson)形容說:“在一定意義上,就像一條狗解釋莎士比亞似的”。人工智能“黑箱化”的算法系統(tǒng)以及數據的不完善性導致的偏見與歧視現象受到越來越多的關注。研究表明,機器學習可以從反映人類日常生活的文本數據中獲得某些偏見。因此,如果智能系統(tǒng)從人類語言中學習到足夠多,達到可以理解和創(chuàng)作的程度,在這個過程中也會產生一些歷史文化方面的聯想,其中某些聯想可能會產生異議。事實上,已有新聞媒體報道人工智能的算法導致了一些歧視與偏見現象,引起了較為廣泛的關注。據報道,英國政府與2019年3月發(fā)起了算法歧視調查,主要的目的就是在于增加算法的透明性與公平性。為了使人工智能系統(tǒng)得到人們的信任,我們需要了解人工智能究竟在做什么,就像許多學者強調的那樣,需要打開黑箱,在一定程度上實現人工智能的透明性。由此,我們才能對人工智能系統(tǒng)的問題產生的問題更好地進行治理。我們可以從以下幾個方面著手。第一,在一定程度上實現對深度學習過程的監(jiān)控,解決深度學習的可解釋性問題,這方面的工作已經得到了一些科學家的重視。第二,由于深度學習依賴于大量的訓練數據,所以對于訓練數據的來源、內容需要進行公開,保證訓練數據的全面性、多樣性。第三,人工智能系統(tǒng)得到的結果如果受到質疑,需要人類工作人員的介入,不能完全依賴于人工智能系統(tǒng)。第四,在一定程度上保證人工智能從業(yè)人員的性別、種族、學術背景等方面的多樣性。當然,從理論上來講,要實現人工智能系統(tǒng)完全透明并不現實,而且在實際應用中也并非越透明越好,必須結合人工智能的具體應用范圍與對象綜合考慮。在非工業(yè)應用中,也就是在人們日常生活中,機器人的透明性與信任、效用之間的關系較為復雜,取決于機器人的應用范圍與目的。第三節(jié)人工智能倫理道德規(guī)范的實現路徑一、樹立正確的人工智能倫理觀念人工智能可以解決無法解決的問題。人工智能的發(fā)展需要人的參與,才能幫助人工智能增強人類的創(chuàng)造力,創(chuàng)造一種基于協作的文化,只有正確認知了解人工智能技術才能順應發(fā)展的要求,對這項技術的肯定與理解才能延續(xù)其“為人類服務”的宗旨。目前,人們對社會規(guī)范以及人工智能應該遵循的倫理原則沒有達成共識。明確人工智能領域的正確發(fā)展方向是當前所有人類需要承擔的責任。研究人工智能技術的人員需要具有較強的社會責任意識,能夠通過正確的倫理道德規(guī)范人工智能技術的進步,在當前社會的發(fā)展中出現了很多科技倫理問題,這些問題就需要引起科技研究人員以及政治人員的關注??茖W與倫理使用的評價標準以及選擇有一定的差異,研發(fā)人員需要有效的融合科學與倫理兩方面。不能夠僅僅局限在科學領域中??茖W與倫理的融合需要科技研究人員與倫理學家進行溝通合作,才能夠更好地規(guī)范人工智能領域的倫理發(fā)展。作為企業(yè)與研發(fā)人員,我們需要在研發(fā)的過程中加入自己的倫理考量,不僅要思考技術“能做什么”,還需要思考“應該做什么”和“應該怎么做的問題”。二、加強人工智能倫理風險防范教育隨著人工智能的快速發(fā)展,在不同階段引發(fā)出各式各樣的倫理問題,在收到學者與公眾的廣泛關注的同時,許多國家與國際組織都對人工智能倫理基于高度的關注。未來社會,強人工智能和超級人工智能一旦研發(fā)成功,其所帶來的后果的善惡倫理需要人們重新去審視與判斷。因此,依舊主要處于弱人工智能時代的我們應該要提高風險與警惕以防止風險失控,要加強人工智能倫理風險的防范教育。第一,需要在當前社會中做好人工智能素養(yǎng)的教育工作,結合當前國家推出的教育信息化2.0方案,已經有很多地區(qū)和學校使用了人工智能。在人工智能的發(fā)展中,就應該做好專業(yè)素養(yǎng)的培育工作,使得學生、家長以及教師都能夠對人工智能的產品進行正確的運用,并且在課題中融入道德倫理意識,使得人們能夠正確掌握人工智能的邊界。第二,要設置人工智能倫理課程,當前有很多的高校已經專門設置了人工智能專業(yè),所以在進行專業(yè)開設時應該將道德倫理課程融入其中,設置為高校教學的必修課,使能人工智能專業(yè)人才能夠具備道德倫理意識。第三,需要對科研人員展開相關的倫理道德培育。當前的科技人員需要再進行人工智能技術研發(fā)時,遵循道德倫理的原則,進而通過道德倫理規(guī)范自己的行為,規(guī)避人工智能技術發(fā)展的不利危害。三、創(chuàng)建多主體互動的交流監(jiān)督平臺人工智能倫理方面的管理還需要多方主體共同參與其中,進行有效的管理應該涉及到企業(yè)、政府、人工智能倫理委員會以及學術共同體等。人工智能領域方面所面臨的倫理問題并不僅僅是一個組織或者是一

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網僅提供信息存儲空間,僅對用戶上傳內容的表現方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論