版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
-13-人工智能發(fā)展中倫理追問報(bào)告目錄TOC\o"1-3"\h\u137人工智能發(fā)展中倫理追問報(bào)告 128943第一節(jié)弱人工智能階段的倫理追問 220121一、隱私問題 28299二、安全問題 38817三、責(zé)任問題 415067四、歧視與偏見問題 518268五、智能型失業(yè)與貧困問題 619720第二節(jié)強(qiáng)人工智能階段的倫理追問 729994一、人工智能的權(quán)利劃分問題 824906二、人工智能的道德地位如何界定 932646三、人工智能的情感落地問題 113179四、人工智能的生態(tài)倫理追問加強(qiáng) 1416545第三節(jié)超級(jí)人工智能階段的倫理追問 167740一、“人”是否將重新被定義 1613794二、人類現(xiàn)行的商業(yè)倫理是否會(huì)被顛覆 1816382三、黑科技的發(fā)明是否破壞人類傳統(tǒng)的倫理價(jià)值 1920世紀(jì)40年代以來,科技所帶來的倫理問題層出不窮,其都對(duì)人類的生存和發(fā)展產(chǎn)生了重大的影響與挑戰(zhàn)。歷史上,人和機(jī)的關(guān)系經(jīng)歷了兩次重大崛起,第一次崛起是英國(guó)工業(yè)革命,大量的機(jī)器被生產(chǎn)出來運(yùn)用到人類的生產(chǎn)生活之中,人和人之間的關(guān)系被機(jī)器所改變。而現(xiàn)如今,第四次工業(yè)革命迅速發(fā)展,人工智能沖破技術(shù)的桎梏成為炙手可熱的前沿產(chǎn)品,因此人機(jī)關(guān)系再一次遭受考驗(yàn)。作為人類,我們應(yīng)當(dāng)在創(chuàng)造人工智能的同時(shí),對(duì)其從道德、法律、社會(huì)制度等各方面加以防范和管控,倫理規(guī)范便是其中必然的手段第一節(jié)弱人工智能階段的倫理追問弱人工智能作為人工智能發(fā)展的最初期的產(chǎn)物,用于幫助人類解決特定領(lǐng)域的特定問題,而并不真正具備思考能力,盡管如此,在給予人類生活巨大便利的同時(shí),也不可或缺的會(huì)有技術(shù)背后的漏洞,造成隱私、安全、責(zé)任、歧視等一些列問題。一、隱私問題在人工智能的發(fā)展中,信息共享化成為了一件不可避免之事,人類也逐漸在信息被共享的社會(huì)現(xiàn)狀中成了行走的“透明信息體”。人工智能技術(shù)背后是龐大的數(shù)據(jù)支持以及基于數(shù)據(jù)的算法,而當(dāng)數(shù)據(jù)被收集并由機(jī)器進(jìn)行深度學(xué)習(xí)后,人類個(gè)體及其相互間的聯(lián)系便會(huì)被不同程度的剖析。工業(yè)社會(huì)中,人與人之間的交往長(zhǎng)期處于禮貌的分寸感之間,對(duì)于個(gè)人隱私的侵犯則通常被認(rèn)為不禮貌,嚴(yán)重甚至可以被認(rèn)為是不道德的。安全感和私密性作為人類社會(huì)最基本的需求,現(xiàn)在已然正處于被迫于他人共享的境地,這也成為了科技進(jìn)步后首要面臨的問題。隨著全球一體化以及我國(guó)對(duì)外開放領(lǐng)域的不斷擴(kuò)大,保護(hù)個(gè)人隱私已經(jīng)不單單是對(duì)我們個(gè)體隱私權(quán)利的保護(hù),更關(guān)系到國(guó)家層面的信息安全問題。以手機(jī)隱私泄漏現(xiàn)象為例,中國(guó)消費(fèi)者協(xié)會(huì)于2018年發(fā)布《100款個(gè)人信息手機(jī)與隱私政策測(cè)評(píng)報(bào)告》,報(bào)告中將近百分之五十的APP隱私條款顯示并不達(dá)標(biāo),涉嫌過度手機(jī)或使用個(gè)人信息。隨后的2019年,中央電視臺(tái)315晚會(huì),又對(duì)手機(jī)隱私泄漏問題進(jìn)行了深入的專題報(bào)道。大數(shù)據(jù)在人工智能應(yīng)用中起著巨大的作用,其體量之大、模樣之多、速度之快,通過大量的數(shù)據(jù)加持與深度學(xué)習(xí),其學(xué)習(xí)和解決問題的能力得到顯著提升。于此同時(shí),本就具有動(dòng)態(tài)變動(dòng)性的人類隱私也逐漸開始受到威脅。例如,過去不被傳播的私人信息現(xiàn)在于網(wǎng)絡(luò)被挖掘出后肆意復(fù)制于傳播;在個(gè)人信息被大量?jī)?chǔ)存于云端的現(xiàn)代社會(huì),人類的位置信息、網(wǎng)絡(luò)搜索痕跡與健康狀態(tài)都被大數(shù)據(jù)技術(shù)實(shí)時(shí)提取更新并保存。當(dāng)大數(shù)據(jù)形成一定規(guī)模,數(shù)據(jù)掌握者便可從模糊且碎片化的數(shù)據(jù)中提取到相應(yīng)具有價(jià)值的個(gè)人信息。也正因?yàn)槿绱?,個(gè)人也開始逐漸喪失對(duì)個(gè)人隱私全的掌控,甚至一些隱私已然被不法分子所窺視。例如,閉路電視攝像頭,一方面可以幫助警察識(shí)別犯罪,但另外以當(dāng)面,也可以利用這項(xiàng)技術(shù)對(duì)他人進(jìn)行跟蹤,個(gè)人的隱私也將受到設(shè)計(jì)者的威脅。因此,作為倫理學(xué)研究者,我們必須對(duì)人工智能發(fā)展中對(duì)于個(gè)人隱私保護(hù)以及數(shù)據(jù)管控相關(guān)的問題上予以關(guān)注。二、安全問題人類對(duì)機(jī)器人與人工智能可能形成的威脅的憂慮由來已久,不過這些擔(dān)憂大多主要表現(xiàn)科幻作品之中。但是,隨著科學(xué)技術(shù)的快速發(fā)展,機(jī)器人與人工智能技術(shù)可能導(dǎo)致的安全問題似乎離我們?cè)絹碓浇?。美?guó)太科學(xué)家喬伊在《為何未來不需要我們》一文中對(duì)機(jī)器人技術(shù)、納米技術(shù)與基因技術(shù)等可能產(chǎn)生的危害表示憂慮。他認(rèn)為,這些高新技術(shù)可能導(dǎo)致的危險(xiǎn)比核武器、生物武器、化學(xué)武器等更為嚴(yán)重。JoyBill,“WhytheFuturedoesn’tNeedUs,”./2000/04/joy-02/.這篇文章得到廣泛關(guān)注,引發(fā)了許多討論。許多人也會(huì)擔(dān)心,人工智能是否會(huì)成為人類“最后的發(fā)明”。《功利主義》作者穆勒認(rèn)為,JoyBill,“WhytheFuturedoesn’tNeedUs,”./2000/04/joy-02/.穆勒.功利主義.徐大建譯[M].上海:上海人民出版社,2008:55.我國(guó)國(guó)務(wù)院于2017年7月8日印發(fā)了《新一代人工智能發(fā)展規(guī)劃》,對(duì)人工智能安全問題進(jìn)行了明確的指出:“人工智能發(fā)展的不確定性帶來新挑戰(zhàn)在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來的安全風(fēng)險(xiǎn)挑戰(zhàn),如加強(qiáng)前沿預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展。”作者或主編單位?新一代人工智能發(fā)展規(guī)劃作者或主編單位?新一代人工智能發(fā)展規(guī)劃[M].北京:人民出版社,2017:4.王國(guó)豫、趙宇亮.敬小慎微:納米技術(shù)的安全與倫理問題研究[M].北京:科學(xué)出版社,2015:導(dǎo)論、53.總體而言,我們既不要過分夸大人工智能的安全性問題,也不能過分樂觀。在弱人工智能階段,人工智能尚未導(dǎo)致比較普遍與嚴(yán)重的安全問題,在這樣的情況下,進(jìn)行充分的理論研究和公開討論是非常必要的。三、責(zé)任問題目前人類已經(jīng)熟練掌握弱人工智能技術(shù),并且造福于人類社會(huì)。雖然人類對(duì)于弱人工智能已經(jīng)進(jìn)入到熟練掌握的狀態(tài),并應(yīng)用其技術(shù)造福于社會(huì),但從另外一個(gè)角度考慮,人工智能也會(huì)給人類社會(huì)帶來不少關(guān)于責(zé)任劃分問題。以無人駕駛汽車技術(shù)為例,著名的無人駕駛汽車品牌特斯拉于2016年發(fā)生了一起震驚世界的事故。美國(guó)佛羅里達(dá)州中部的一段公路上,一輛正在自動(dòng)駕駛狀態(tài)中的ModelS于當(dāng)時(shí)一輛正在橫穿高速公路的拖拉機(jī)掛車迎面相撞,事故最終造成了駕駛員的當(dāng)場(chǎng)死亡。這場(chǎng)車禍的悲劇所導(dǎo)致的問題之所以區(qū)別于以往所有的車禍?zhǔn)鹿适且驗(yàn)槿藗儧]有辦法第一時(shí)間來判定責(zé)任機(jī)制歸屬。人們就事故所應(yīng)當(dāng)承擔(dān)的責(zé)任體究竟是設(shè)計(jì)出自動(dòng)駕駛算法的“命令者”,還是通過算法執(zhí)行命令的“執(zhí)行者”人工智能機(jī)器本身爭(zhēng)論不休。然而如果人工智能機(jī)器本身有責(zé)任,人們又應(yīng)該如何判定處罰?這場(chǎng)事故給人們帶來人類討論的同時(shí),也給倫理學(xué)屆的學(xué)者們帶來了冷思考。責(zé)任(Responsibility)一詞是法律和倫理學(xué)研究的核心概念并由不同的學(xué)者賦予多種解釋。通俗而言,責(zé)任代表這個(gè)體所應(yīng)當(dāng)達(dá)成做到之事。倫理學(xué)視閾下的責(zé)任更多于道德層面的責(zé)任,其有兩層含義:一是指行為主體對(duì)他人和社會(huì)所應(yīng)自覺履行的責(zé)任;二是指行為主體對(duì)自身選擇的過失及不良后果在道義上所應(yīng)承擔(dān)的責(zé)任。羅國(guó)杰.倫理學(xué)基礎(chǔ)[M].北京:首都經(jīng)濟(jì)貿(mào)易大學(xué)出版社,2004:65羅國(guó)杰.倫理學(xué)基礎(chǔ)[M].北京:首都經(jīng)濟(jì)貿(mào)易大學(xué)出版社,2004:65以軍用機(jī)器人為例,美國(guó)機(jī)器人研究專家阿金用“炸彈、紐帶和奴役”來形容三種引起較多社會(huì)關(guān)注的機(jī)器人,即軍用機(jī)器人、情侶機(jī)器人與工業(yè)(服務(wù))機(jī)器人。在這三種機(jī)器人當(dāng)中,目前弱人工智能發(fā)展進(jìn)路下,關(guān)于軍用機(jī)器人的倫理問題爭(zhēng)論最為激烈。而且,軍用機(jī)器人對(duì)未來戰(zhàn)爭(zhēng)的影響也將是革命性的。軍用機(jī)器人具有非常顯著的優(yōu)勢(shì),其具有較高的智能,并且可以全方位和全天候的進(jìn)行作戰(zhàn),在極端惡劣的情況下也可以代替士兵完成極限與正常工作,極大降低傷亡概率,具有較強(qiáng)的戰(zhàn)場(chǎng)生存能力更加節(jié)約了作戰(zhàn)成本。然而這樣的機(jī)器人一旦失控,所造成的安全隱患不容忽視,并且容易陷入更大的責(zé)任困境中去。人工智能的研發(fā)者、生產(chǎn)商以及使用者都他應(yīng)該為軍用機(jī)器人之類的人工智能體所造成的的不良后過進(jìn)行負(fù)責(zé)。而責(zé)任的分擔(dān)細(xì)則,則需要倫理學(xué)研究者進(jìn)行更深入的研究,無論如何,研發(fā)者、生產(chǎn)商以及使用者作為責(zé)任分配網(wǎng)絡(luò)中的一部分都應(yīng)被分配到相應(yīng)的法律與道德責(zé)任。綜上所述,智能化的社會(huì)已然到來,人們?cè)谙硎苋斯ぶ悄芩鶐砀l淼耐瑫r(shí),也應(yīng)當(dāng)為其所產(chǎn)生的一系列事故擔(dān)負(fù)起相應(yīng)的責(zé)任,努力搭建責(zé)任分配的地基,更好的為接下來智能機(jī)器的發(fā)展指明方向。四、歧視與偏見問題近年來,人類無數(shù)次面對(duì)一個(gè)事實(shí),即有偏見的算法系統(tǒng)會(huì)導(dǎo)致嚴(yán)重的不公正與歧視。人工智能的產(chǎn)生基于背后的算法,看似是純理性數(shù)字的表達(dá),但卻不可避免的會(huì)造成一些主觀的偏見,例如性別和種族的歧視問題,在谷歌算法中,高薪職位中對(duì)于女性的招聘廣告非常少,而搜索非洲裔美國(guó)人的名字便會(huì)產(chǎn)生是否有犯罪記錄的提示。這樣的偏見來源也是多方面的,既有可能來自于數(shù)據(jù)本身,也可能是算法設(shè)計(jì)者在編程到系統(tǒng)的過程中隱含偏見。由于算法會(huì)利用已收集的數(shù)據(jù)對(duì)未來模型進(jìn)行預(yù)測(cè),因此人工智能計(jì)算機(jī)在后續(xù)的深度學(xué)習(xí)中便會(huì)受到原有數(shù)據(jù)模型的影響。同理可證,若人類降含有偏見的算法錄入人工智能機(jī)器,隨著機(jī)器未來自主化地深度學(xué)習(xí)后,帶有偏見的算法數(shù)據(jù)只可能會(huì)愈發(fā)嚴(yán)重。較為憂慮的現(xiàn)狀是,目前有絕大部分人群,都沒有即使到自身存在的歧視問題,,經(jīng)過數(shù)據(jù)的捕捉精準(zhǔn)深度學(xué)習(xí)出帶有歧視結(jié)果的數(shù)據(jù),也同時(shí)進(jìn)一步加大了歧視。不僅如此,人工智能與人類相比,在決策層面上少了非常多主觀意愿與偏見,但我們也應(yīng)該重視,人的偏見是有針對(duì)性的個(gè)體性偏見,不僅如此,人工智能在決策層面缺少與人類相同的主觀意愿與偏見,人類應(yīng)意識(shí)到自我偏見是有針對(duì)性的個(gè)體偏見,而人工智能卻會(huì)將個(gè)體偏見映射到整體系統(tǒng)中,從而導(dǎo)致偏見根植于整體系統(tǒng),從而對(duì)人工智能決策的偏差性產(chǎn)生重大影響。因此,為了確保我們開發(fā)的人工智能技術(shù)在之后使用系統(tǒng)中盡可能的公平與符合道德,人們需要采取相應(yīng)的措施來識(shí)別偏見并減少偏見。五、智能型失業(yè)與貧困問題對(duì)于公眾來說,最緊要的問題可能是在人工智能等科技的影響下,哪些職業(yè)可能消失,哪些職業(yè)會(huì)有較好的發(fā)展前景,從而提前做好相應(yīng)的準(zhǔn)備。從第一次工業(yè)革命到如今,每一次新的技術(shù)革命都會(huì)產(chǎn)生新的就業(yè)轉(zhuǎn)移,就業(yè)市場(chǎng)都會(huì)發(fā)生新的變化。牛津大學(xué)2016年發(fā)表了一份研究報(bào)告指出,到2043年,美國(guó)47%的現(xiàn)有工作崗位將會(huì)因?yàn)槿斯ぶ悄芗夹g(shù)而被取代,而中國(guó)被取代崗位率將達(dá)到69%,鄰國(guó)的印度也將有75%的崗位被替代。歐盟委員會(huì)也曾預(yù)測(cè),在外來90%的工作崗位將具備最基本的數(shù)字功能,因此新的技術(shù)革命在產(chǎn)生就業(yè)轉(zhuǎn)移問題的同時(shí),貧富差距過大的問題也隨之而來。目前在許多領(lǐng)域,已經(jīng)出現(xiàn)了人工智能代替人類本身勞動(dòng)的現(xiàn)象,例如智能物流機(jī)器人可以通過一站式物流服務(wù)取代人類,提高物流效率的同時(shí),大量降低了人類勞動(dòng)成果,但會(huì)導(dǎo)致大量的快遞員失業(yè);人工智能翻譯的出現(xiàn),人與人之間交流的屏障縮小,但與此同時(shí)也造成了大量的翻譯人員失業(yè)等。然而也有一些學(xué)者持有相對(duì)樂觀的態(tài)度。奧特爾(DavidAutor)認(rèn)為,過去兩個(gè)世紀(jì)的自動(dòng)化與技術(shù)進(jìn)步并沒有淘汰人類勞動(dòng)。一些記者和專家夸大了機(jī)器代替人類勞動(dòng)力的程度,而忽視了自動(dòng)化與勞動(dòng)力之間存在的巨大的互補(bǔ)性,正式這種互補(bǔ)性提高了生產(chǎn)率,增加了收入,擴(kuò)大了對(duì)勞動(dòng)力的需求。計(jì)算機(jī)可以代替人類完成常規(guī)性、程序性的工作,同時(shí)也突顯了人類在解決問題的技巧性、適應(yīng)性與創(chuàng)造性等當(dāng)面的相對(duì)優(yōu)勢(shì)。AutorDavid,”AutorDavid,”WhyAreThereStillSoManyJobs?TheHistoryandFutureofWorkplaceAutomation,”JournalofEconomicofPerspectives,2015,Vol.29,No.3,pp.3-30.王君,張于喆,張義博,洪群聯(lián).人工智能等新技術(shù)進(jìn)步影響就業(yè)的機(jī)理與對(duì)策[J].宏觀經(jīng)濟(jì)研究,2017(10):169-181.對(duì)于哪些職業(yè)更容易為人工智能所取代,也是一個(gè)眾說紛紜的話題。弗雷(CarlFrey)等人認(rèn)為,美國(guó)有大約47%的工作處于高風(fēng)險(xiǎn)類別,比如運(yùn)輸和物流行業(yè),辦公、管理協(xié)助人員,以及制造行業(yè)等風(fēng)險(xiǎn)最大。過去十年來就業(yè)崗位增長(zhǎng)最多的服務(wù)業(yè),也由于服務(wù)機(jī)器人的廣泛應(yīng)用等原因處于高風(fēng)險(xiǎn)行業(yè)之列。也就是說,將來對(duì)低技能、低薪酬行業(yè)的從業(yè)人員需求量會(huì)打打減少,人們需要轉(zhuǎn)向更具有創(chuàng)造性和社會(huì)技能的工作,比如健康護(hù)理、教育、法律、藝術(shù)、管理以及科學(xué)技術(shù)等行業(yè)。而卡普蘭(JerryKaplan)則認(rèn)為:“有些你認(rèn)為絕對(duì)不會(huì)被自動(dòng)化取代的工作,可能最終還是會(huì)小時(shí)。研究中經(jīng)常被引用的一個(gè)例子是,需要優(yōu)秀的人際交往能力或說服能力的工作是不太可能在不遠(yuǎn)的未來實(shí)現(xiàn)自動(dòng)化的。但是事實(shí)并不一定如此?!笨ㄆ仗m.人工智能時(shí)代[M].李盼譯.杭州:浙江人民出版社,2015:130-131.雖然人工智能科技發(fā)展日新月異,但目前人們還是傾向于認(rèn)為人類與人工智能存在很大程度上的互補(bǔ)性。在常規(guī)的重復(fù)性工作方面,人類已經(jīng)沒有任何優(yōu)勢(shì),但在語言表達(dá)、情感、藝術(shù)、創(chuàng)造性、適應(yīng)性以及靈活性等方面,人類還是略勝一籌,這種優(yōu)勢(shì)思維在短期內(nèi)人工智能還難以超越。布萊恩約佛森認(rèn)為:“思維能力、大框架的模式識(shí)別和最復(fù)雜程度的溝通是認(rèn)知領(lǐng)域中人類仍然擁有優(yōu)勢(shì),且未來一些時(shí)間里還將繼續(xù)保持這種優(yōu)勢(shì)的幾個(gè)方面?!辈既R恩約佛森、麥卡菲布萊恩約佛森、麥卡菲.第二次機(jī)器革命[M].蔣永軍譯.北京:中信出版集團(tuán),2016:265.長(zhǎng)遠(yuǎn)來看,人工智能的確是推動(dòng)社會(huì)生產(chǎn)力前進(jìn)的力量,并且可以創(chuàng)造出巨大財(cái)富。但是,人們對(duì)于人工智能引發(fā)的智能型失業(yè)問題的擔(dān)憂并非杞人憂天。在智能化過程中,有人收獲財(cái)富,也可能有人因智能化發(fā)展而失去工作并陷入技術(shù)貧困。強(qiáng)人工智能階段的倫理追問在人類可以熟練掌握弱人工智能的基礎(chǔ)上,強(qiáng)人工智能的發(fā)展又引發(fā)了學(xué)界深思,原有的倫理問題探討已不足以對(duì)抗新形勢(shì)下的倫理道德困境。強(qiáng)人工智能時(shí)代,智能機(jī)器擁有了和人類一樣學(xué)習(xí)、推理、認(rèn)知的能力,也成為了真正意義上的人工智能機(jī)器,但由此引發(fā)的權(quán)利劃、道德地位界定等問題依舊爭(zhēng)論不休。一、人工智能的權(quán)利劃分問題人權(quán)建基于對(duì)人的內(nèi)在價(jià)值和尊嚴(yán)的承認(rèn),是構(gòu)建道德體系的基石,也是倫理學(xué)的思想歸宿。諶章明.人權(quán)與倫理學(xué):科技、尊嚴(yán)與跨文化視野——“第五屆人權(quán)與倫理學(xué)論壇”述要[J].哲學(xué)動(dòng)態(tài),2016(03):110-111.諶章明.人權(quán)與倫理學(xué):科技、尊嚴(yán)與跨文化視野——“第五屆人權(quán)與倫理學(xué)論壇”述要[J].哲學(xué)動(dòng)態(tài),2016(03):110-111.強(qiáng)人工智能時(shí)代的到來,此時(shí)的人工智能機(jī)器已經(jīng)大范圍融入現(xiàn)代人的生活,被賦予情感意識(shí)的機(jī)器自主性與智能性的程度顯著提升,其逐漸開始具有主體性相關(guān)的道德問題,即擁有自我意識(shí)的強(qiáng)人工智能是否可能成為道德的主體,且若成為道德主題又改如何進(jìn)行道德權(quán)利的劃分?權(quán)利的外延有道德權(quán)利與法律權(quán)利,道德權(quán)利視域下,人類的評(píng)判更多來自于倫理規(guī)范的確立與道德主題的道德水平。傳統(tǒng)的自然權(quán)利論認(rèn)為所謂人權(quán),應(yīng)當(dāng)是從人所為的固有屬性或自然屬性推演出的某種權(quán)利與規(guī)范,簡(jiǎn)而言之,即是個(gè)體作為人類的一份子所擁有的權(quán)利,而這一切僅僅是因?yàn)樗侨祟?,而不是其他非人存在物。從這一角度而言,人工智能并不能夠擁有權(quán)利。而人工智能被創(chuàng)造之初的目的則是為了更好保障人類的權(quán)利,即便賦予人工智能權(quán)利也應(yīng)該遵守以人為本的原則,因此人工智能的權(quán)利劃分必然會(huì)受到制約。關(guān)于人工智能權(quán)利劃分的問題,目前學(xué)術(shù)界也存在三種不同的觀點(diǎn)。第一種觀點(diǎn)是堅(jiān)決反對(duì)。持有該觀點(diǎn)的人認(rèn)為,我們生活中不需要強(qiáng)大的只能機(jī)器人,智能水平再高的機(jī)器人也還是及其,不是人。因此,給予機(jī)器人“人的權(quán)利”是一件荒唐的是。如果讓機(jī)器人擁有了所謂的“人權(quán)”,就違背了阿西莫夫的“機(jī)器人三定律”?!皺C(jī)器人三定律”即:第一定律,機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;第二定律,機(jī)器人必須服從人給予它的命令,當(dāng)改名領(lǐng)域第一定律沖突時(shí)例外;第三定律,機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。如果人類對(duì)于機(jī)器人過于放縱,就會(huì)損害到人類自身。第二種觀點(diǎn)是同意給予。持此觀點(diǎn)者認(rèn)為應(yīng)該給予智能機(jī)器人“人的權(quán)利”。他們提出,如果機(jī)器人可以擁有道德修養(yǎng),可以自主和人類產(chǎn)生互動(dòng),那么它就應(yīng)該享有“人的權(quán)利”。例如,斯坦福大學(xué)教授克利福德.納斯曾認(rèn)為,生命是特別的,我們不應(yīng)該去虐待那些及其、動(dòng)物等非人類生命,非人類生命也應(yīng)該有相應(yīng)的“人權(quán)”。第三種觀點(diǎn)是可有限給予智能機(jī)器人“人權(quán)”。持這個(gè)觀點(diǎn)的人認(rèn)為,是否給予智能機(jī)器人“人權(quán)”不能采取極端化的認(rèn)識(shí),應(yīng)該對(duì)“人權(quán)”的過程中有一個(gè)最根本的原則,就是智能機(jī)器人智能造福人類,而不能傷害人類。二、人工智能的道德地位如何界定目前人們關(guān)于人工智能倫理的相關(guān)討論就有人針對(duì)人工智能的道德地位提出了探究,特別是關(guān)于人工智能的道德主體的定位,通過參看和分析該問題的討論結(jié)果,進(jìn)而應(yīng)用到人工智能的設(shè)計(jì)中,使得倫理設(shè)計(jì)能夠更為客觀,也就是說在進(jìn)行人工智能設(shè)計(jì)時(shí)需要通過一定的邏輯處理能力定位人工智能道德判斷能力。機(jī)器人是人工智能里面非常重要的組成部分之一,其英文單詞“robot”一開始取意為“奴隸、奴仆”。因此,機(jī)器人在設(shè)計(jì)之初的目的便是為人類服務(wù),后續(xù)演化發(fā)展的人工智能也不例外。然而隨著人工智能水平發(fā)展程度的提高以及應(yīng)用范圍的不斷擴(kuò)大,逐漸轉(zhuǎn)化到強(qiáng)人工智能時(shí)代,人類與人工智能之間的關(guān)系也愈發(fā)密切。2017年10月26日,世界上第一個(gè)機(jī)器人在沙特阿拉伯被授予公民身份,這就是由香港漢森機(jī)器人公司研發(fā)出來的機(jī)器人“索菲亞”。索菲亞擁有跟人類女性相似度極高的仿生橡膠皮膚,并且面部可以表現(xiàn)出超過62種表情,其“大腦”中采取的人工智能算法能夠?qū)θ祟惷娌窟M(jìn)行識(shí)別,并和人類進(jìn)行眼神接觸。這是人類在法律意義上第一次承認(rèn)人工智能機(jī)器人擁有公民的身份,可是否代表機(jī)器人已經(jīng)和真實(shí)人類一樣擁有人格與道德主體呢?事實(shí)上,不同的學(xué)者對(duì)道德行為體的標(biāo)準(zhǔn)界定也不太一樣。美國(guó)哲學(xué)家沃森經(jīng)過研究表示,要想轉(zhuǎn)化為道德行為體,就需要滿足六項(xiàng)標(biāo)準(zhǔn):第一需要具備一定的自我意識(shí);第二,需要能夠?qū)Ξ?dāng)前的權(quán)利和義務(wù)有相應(yīng)的理解能力;第三,能夠遵守一定的義務(wù)原則,并通過這些原則規(guī)范自己的行為;第四,可以理解義務(wù)原則的內(nèi)容;第五,能夠具備履行相關(guān)義務(wù)的行為能力;第六,具備一定的思維意識(shí),可以對(duì)特定義務(wù)原則做出遵循或者拒絕的判斷。WastonRichard,”Self-ConsciousnessandtheRightsofNonhumanAnimalsandNature,”EnvironmentalEthics,1979,Vol.l,No.2,pp99-120.泰勒在研究之后,借助能力層面,闡述了道德行為體的定義,從其觀點(diǎn)來看,若是生命體存在部分能力,并且可以通過擁有的能力,實(shí)現(xiàn)一定的道德或者非道德行為,能夠?qū)崿F(xiàn)一定的責(zé)任或者義務(wù),那么此時(shí)就可以將這種生命體歸類為道德行為體。從這些具備的能力內(nèi)容來看,主要包括,能夠?qū)φ_以及錯(cuò)誤進(jìn)行判斷的能力;可以考慮道德原則與水平的能力,也就是對(duì)一定的道德原則發(fā)表看法,從道德層面考慮一項(xiàng)事物;面對(duì)一項(xiàng)決定具備執(zhí)行決心的能力;可以解釋自己的未執(zhí)行行為WastonRichard,”Self-ConsciousnessandtheRightsofNonhumanAnimalsandNature,”EnvironmentalEthics,1979,Vol.l,No.2,pp99-120.部分學(xué)者通過責(zé)任倫理層面進(jìn)行分析提出,當(dāng)前人們的社會(huì)發(fā)展不應(yīng)該將機(jī)器人定位于道德行為體方面,如果機(jī)器人轉(zhuǎn)化成了道德行為體,那么機(jī)器人在日常生活中也需要承擔(dān)一定的義務(wù)與責(zé)任,但是對(duì)于機(jī)器人本身來說,它是無法承擔(dān)責(zé)任,所以從理論層面上分析,不能夠讓人工智能發(fā)展成一個(gè)道德行為體,如果發(fā)生轉(zhuǎn)化,也會(huì)給設(shè)計(jì)者提供一定的責(zé)任推卸空間。帕特里克.休經(jīng)過研究之后提出,通過對(duì)當(dāng)前的技術(shù)進(jìn)行預(yù)測(cè)能夠了解AMAs提出的設(shè)想是不能夠?qū)崿F(xiàn)的。他表示,若是行為體因?yàn)椴糠中袨榈玫较鄳?yīng)的贊許或者批評(píng),那么該行為體就應(yīng)該承擔(dān)道德責(zé)任,只有達(dá)到這種水平,才能夠稱它是道德行為體。只是從目前研究成果來看,人們的研究?jī)H僅是將道德原則強(qiáng)加到人工智能中,使得人工智能機(jī)械性的執(zhí)行道德行為,并不是由人工智能主動(dòng)完成的道德行為。這種人工智能并不是真正的道德行為體,而是一種人工行為體,所以在這種情況下,應(yīng)該是人類承擔(dān)全部的義務(wù)與責(zé)任。美國(guó)學(xué)者約翰遜(DeborahJohnson)等人認(rèn)為,我們不應(yīng)該制造AMAs。他們認(rèn)為,關(guān)于人工智能系統(tǒng)是否可以成為道德行為體的爭(zhēng)論,實(shí)質(zhì)上是人們對(duì)正在發(fā)展中的智能系統(tǒng)的不同理解之爭(zhēng),也是對(duì)其未來發(fā)展的方向之爭(zhēng)。事實(shí)上,智能系統(tǒng)是由人類創(chuàng)造出來執(zhí)行人類的任務(wù),由人類涉及并使用的,既是它們可以獨(dú)立運(yùn)行,但仍然而且也應(yīng)該與人類聯(lián)系在一起。約翰遜等人表示,若是推廣AMAs,那么有極大的可能會(huì)使得人工智能的研究人員以及使用對(duì)象不承擔(dān)自身責(zé)任,給予了他們較大的責(zé)任推卸空間與機(jī)會(huì)。美國(guó)國(guó)家計(jì)算機(jī)專家楊珀?duì)査够J(rèn)為,給智能系統(tǒng)賦予道德地位是一種舞蹈,這種做法以為可以通過束縛仁人工智能的行為來限制其產(chǎn)生負(fù)面影響,他主張應(yīng)該為人工智能簡(jiǎn)歷一種新的安全工程科學(xué),由此保證人類的價(jià)值最大化。在印度尼西亞《雅加達(dá)郵報(bào)》(Qusthan,2018)上,雅加達(dá)比奴斯商學(xué)院的一名科學(xué)家從倫理的角度分析了人工智能是否受到倫理約束的問題。作者認(rèn)為,只要人工智能在一定程度上可以模擬人類的智力并因此獲得一套相應(yīng)的價(jià)值觀,這就意味著人工智能所作出的決策是具有價(jià)值導(dǎo)向的。然而,由于目前為止人工智能并沒有自然權(quán)利,只存在人為的權(quán)利,因此,人工智能不應(yīng)該和人類本擁有的倫理原則來進(jìn)行同向衡量。基于此,人工智能將被視為一種道德代理人。也有學(xué)者認(rèn)為,人工智能倫理的推理方案并不能和人類倫理的推理方式劃上等號(hào)。人類的道德判斷需要情感與意識(shí)等因素,而對(duì)于人工智能來說,這些因素未必是必須的,因此,人工智能未必一定要向人類倫理的推理模式看起,在這樣的情況下用人類的道德推理模式來要求人工智能,未必合理。其實(shí),日益向我們走來的“強(qiáng)人工智能時(shí)代”已經(jīng)使人工智能倫理問題不再是哲學(xué)思辨的倫理問題,更是日益緊迫的現(xiàn)實(shí)問題。目前,世界各國(guó)都高度重視機(jī)器人、人工智能及相關(guān)產(chǎn)業(yè)的發(fā)展,競(jìng)相加大投資力度。毫無疑問。機(jī)器人與人工智能將迎來新的投資熱潮并取得快速發(fā)展。隨著當(dāng)下科技水平的發(fā)展,人工智能的技術(shù)只會(huì)越來越高,機(jī)器人也會(huì)具備更高的自主能力。正如英國(guó)皇家工程院(TheRoyalAcademyofEngineering)在2009年8月發(fā)布的報(bào)告中強(qiáng)調(diào)那樣,自動(dòng)系統(tǒng)在未來的生活中可能會(huì)大量出現(xiàn)在不同的領(lǐng)域中,從現(xiàn)在出現(xiàn)的無人駕駛汽車,發(fā)展到以后可以上戰(zhàn)場(chǎng)的機(jī)器人,又或者是可以取代醫(yī)生手術(shù)的自動(dòng)機(jī)器人等,這些設(shè)備不再需要人類操作,就可以主動(dòng)學(xué)習(xí)相關(guān)的行為并作為行為決策,這些技術(shù)是目前社會(huì)中正在研發(fā)與進(jìn)步的。TheRoyalAcademyofEngineering,AutonomousSystems:Social,LegalandEthicalIssues,.uk/publications/reports/autonomous-systems-report.在這樣的歷史背景下,讓人工智能擁有一定的道德判斷與行為能力,從而使其更好地為人類服務(wù),盡量減少甚至避免負(fù)面影響,成為必然之需。TheRoyalAcademyofEngineering,AutonomousSystems:Social,LegalandEthicalIssues,.uk/publications/reports/autonomous-systems-report.三、人工智能的情感落地問題隨著自然語言處理技術(shù)的加強(qiáng)和深度學(xué)習(xí)技術(shù)的發(fā)展,進(jìn)入強(qiáng)人工智能時(shí)代,人工智能設(shè)計(jì)中也逐漸加入大量哲學(xué)與心理學(xué)的概念,其中,人工情感便是研究者們爭(zhēng)先討論的對(duì)象。Picard教授在1995年第一次通過研究之后對(duì)情感計(jì)算進(jìn)行了定義闡述,然后將情感計(jì)算認(rèn)為是一種能夠?qū)η楦挟a(chǎn)生一定的計(jì)算方法,發(fā)表于1997年的《AffectiveComputing》PICARDRW.Affectivecomputing[M].London:MITPress,1997.書籍中。當(dāng)前人們?cè)O(shè)計(jì)的多種機(jī)器人類型中,情侶機(jī)器人較為特殊,能夠與人進(jìn)行親密接觸。2011年,《麻省理工科技評(píng)論》(MITTechno;ogyReview)進(jìn)行了一次民意調(diào)查,內(nèi)容是關(guān)于人們與機(jī)器人相愛的思想的態(tài)度,19%的人認(rèn)為他們可能會(huì)愛上機(jī)器人,45%的人認(rèn)為不會(huì),還有36%的人認(rèn)為不確定。在2013年進(jìn)行的有一千名美國(guó)成年人才加的調(diào)查中,有9%的人認(rèn)為他們可能會(huì)與機(jī)器人發(fā)生性行為。這些調(diào)查表明,已經(jīng)有很大一部分人群在思考人類與機(jī)器人之間的關(guān)系問題。PICARDRW.Affectivecomputing[M].London:MITPress,1997.第一臺(tái)情感機(jī)器人誕生于2008年,是由美國(guó)麻省理工學(xué)院的研究者設(shè)計(jì)出來的,人們稱它為“Nexi”。Nexi可以根據(jù)人們所說的話語進(jìn)行情緒識(shí)別,并能反應(yīng)出相應(yīng)的喜怒哀樂,通過豐富的面部與肢體動(dòng)作表現(xiàn)出各式各樣的感情。到了2019年,日本GrooveX公司正式推出了一款適宜居家使用且具有情感療愈功能的情感機(jī)器人,即伴侶機(jī)器人“l(fā)ovot”。Lovot擁有可愛的外表,通過身體的觸敏機(jī)制能使人在觸摸機(jī)器人的過程中表達(dá)出特定的音效與情緒,使得人們可以和機(jī)器人更加親密進(jìn)行接觸。不僅如此,lovot和以前的情感機(jī)器人不一樣的是,Groove賦予其索取與嫉妒的能力,讓主人更直觀的感受到機(jī)器人的感情。人工情感是通過給予設(shè)備一定的算法,使得設(shè)備能夠通過算法對(duì)人的情感進(jìn)行識(shí)別或者表達(dá)情緒,實(shí)現(xiàn)人與機(jī)器設(shè)備的友好交互,提升計(jì)算機(jī)設(shè)備的智能化設(shè)計(jì)水平,可以有效促進(jìn)計(jì)算機(jī)科學(xué)技術(shù)的進(jìn)步與發(fā)展。對(duì)比傳統(tǒng)計(jì)算機(jī)以及現(xiàn)在的計(jì)算機(jī)來看,早期的計(jì)算機(jī)只是展示一種固定算法的理性思維,也就是對(duì)人類的腦部進(jìn)行設(shè)計(jì),但是通過現(xiàn)在計(jì)算機(jī)中應(yīng)用的人工情感技術(shù),能夠使得設(shè)備具有更多的感性思維,設(shè)計(jì)師按照人心的形式進(jìn)行設(shè)計(jì),人工情感中涵蓋了情感智能,情感智能指的是人類思維智能技術(shù)發(fā)展中的一種高水平的智能技術(shù)。在當(dāng)前的人工智能領(lǐng)域中,人工情感有著較好的發(fā)展以及應(yīng)用前景,能夠通過該種技術(shù)為服務(wù)型機(jī)器人設(shè)計(jì)更強(qiáng)的情感以及意識(shí)水平,使得機(jī)器人能夠?qū)崿F(xiàn)更好的人性化搜索,與人之間形成更為和諧的人機(jī)交互環(huán)境。簡(jiǎn)而言之,人工智能如果能夠?qū)θ祟惖那楦羞M(jìn)行識(shí)別,且對(duì)人類的感情做出相應(yīng)的回應(yīng),將會(huì)更容易被人類所接受。哲學(xué)家也一直到討論情感與道德兩者存在的聯(lián)系,部分哲學(xué)家提出,道德主要是依靠情感形成的,而不是理性創(chuàng)造出來的,所以形成了情感主義倫理學(xué)的觀點(diǎn)。就連康德這種純粹的理性主義者都無法否定情感在德道中的存在。有學(xué)者提出,情感是道德的核心內(nèi)容,對(duì)于人們的行為規(guī)范以及遵守原則有著非常重要的引導(dǎo)意義張曦.道德能力與情感的首要性[J].哲學(xué)研究,2016(05):121-126.現(xiàn)代任職神經(jīng)科學(xué)也通過研究之后,提出了情感對(duì)于道德活動(dòng)有著十分重要的地位。格林(JoshuaGreene)與他人合作通過研究,在認(rèn)知神經(jīng)科學(xué)的基礎(chǔ)上借助功能性磁共振成像技術(shù)分析了人們是如何進(jìn)行道德結(jié)果的判斷的,進(jìn)而通過研究成果能夠看到,在人們的道德認(rèn)知判斷中,情感占有非常多的決定因素占比。張曦.道德能力與情感的首要性[J].哲學(xué)研究,2016(05):121-126.Greenjoshua,etal,”AnfMRIInvestigationofEmotionalEngagementinMoralJudgement,”science,2011,Vol.293,No.5537,pp.2105-2108.若是人與機(jī)器人結(jié)婚,那么在當(dāng)前的社會(huì)中,就需要面臨傳統(tǒng)婚姻倫理觀念的批判和否認(rèn),從這方面來看,不管是那種機(jī)器人,只要涉及到婚姻,就會(huì)與傳統(tǒng)宗教婚姻產(chǎn)生認(rèn)知沖突,從沖突方向來看,主要是影響婚姻的神圣性。比如伊斯蘭教的婚姻,他們的婚姻通常需要保障雙發(fā)均為穆斯林的身份,有著一致的宗教信仰。而機(jī)器人當(dāng)前還無法確定具體的宗教屬性,此外還需要考慮婚姻忠誠(chéng)以及機(jī)器人的婚姻地位方面的多種問題,這就會(huì)導(dǎo)致人與機(jī)器人的婚姻會(huì)與傳統(tǒng)宗教婚姻產(chǎn)生極為尖銳的沖突。情侶機(jī)器人的設(shè)計(jì)能夠治療部分人群的社交困難,幫助社會(huì)群眾解決一定的心理障礙,也可以緩解性張力,這體現(xiàn)出來的是情侶機(jī)器人的積極作用,但是人們長(zhǎng)時(shí)間與機(jī)器人戀愛,這種戀愛算不算謊言呢?有人認(rèn)為,機(jī)器人會(huì)欺騙人們?nèi)鬯鼈?,事?shí)上無論人們把何種社交技巧植入機(jī)器人,其實(shí)都是一種錯(cuò)覺,只不過利用精巧的設(shè)計(jì)使得人們輕信機(jī)器人而已;這可能會(huì)使人們生活在一個(gè)混亂的世界之中,并影響我們做出更準(zhǔn)確的判斷。雖然人工情感研究受到不少學(xué)者的高度重視并取得了一些重要成果,但是,當(dāng)前的科技能力較差,我們目前并沒有對(duì)人腦有非常充分的研究和認(rèn)知,而且人的情感十分復(fù)雜,所以如果想要使得機(jī)器人的情感與人極為相似是不可能的。然而強(qiáng)人工智能時(shí)代即將向我們走來,現(xiàn)階段,人機(jī)交互技術(shù)的濫用問題頻發(fā),人工智能的情感落地問題也引發(fā)了新的問題,比如,與機(jī)器人相處時(shí),面對(duì)同種問題,是否可以通過人類之間的非道德方法處理與機(jī)器人之間的矛盾,是否可以對(duì)機(jī)器人產(chǎn)生虐待行為,若是可以虐待,那么虐待的限度又該如何設(shè)置。盡管當(dāng)前并沒有形成統(tǒng)一的倫理道德規(guī)范,但其所引發(fā)的倫理問題是涉及到生活的各個(gè)方面的,不是僅靠純粹的學(xué)術(shù)研究就可以很好的解決。在即將到來的強(qiáng)人工智能時(shí)代,人工智能的情感落地問題方面的倫理研究對(duì)學(xué)者們來說依舊是一個(gè)十分緊迫的任務(wù)。四、人工智能的生態(tài)倫理追問加強(qiáng)由于弱人工智能不具有自主意識(shí),造就了其在人與自然之間只能扮演著聯(lián)結(jié)橋梁的媒介角色。而在強(qiáng)人工智能階段,該問題將發(fā)生質(zhì)的變化。強(qiáng)人工智能是達(dá)到人類思維水平的機(jī)器智能,擁有知覺和意識(shí)。所以,在考量該階段人工智能的生態(tài)倫理本質(zhì)時(shí),就需要將人工智能放在與人、自然同等的地位進(jìn)行探究。因此,強(qiáng)人工智能階段的生態(tài)倫理本質(zhì)主要體現(xiàn)為一種與人類、自然平等的主體屬性,而不再是一種工具屬性。在弱人工智能階段,我們只需要考慮人與自然兩個(gè)維度,而在強(qiáng)人工智能階段,由于有自主意識(shí)的人工智能的加入,使得人與自然的關(guān)系變得更加復(fù)雜。在環(huán)境倫理學(xué)的發(fā)展歷程中,道德對(duì)象的范圍該如何確定一直是人類中心主義與非人類中心主義爭(zhēng)論的焦點(diǎn)。學(xué)者佩珀(DavidPeper)認(rèn)為,人類中心主義是把人類放在一切生物世界的中心,把人當(dāng)作一切價(jià)值的來源,自然的價(jià)值由人賦予;美國(guó)環(huán)境倫理學(xué)家波斯勒(RichardG.Botzler)與阿姆斯特朗(SusanJ.Armstrong)指出,作為哲學(xué)觀點(diǎn)的人類中心主義把人的需要和利益當(dāng)作最高宗旨,對(duì)非人實(shí)體的關(guān)注亦僅僅是因?yàn)樗鼈冏陨淼墓ぞ邇r(jià)值;??怂估≧.Eckersley)表示,人類中心主義認(rèn)為人類是萬物的主宰,是所有價(jià)值的來源和萬物的尺度。人類中心主義認(rèn)為,人是自然界中唯一具有內(nèi)在價(jià)值的存在,大自然對(duì)人類而言只具備工具價(jià)值,人是自然的主人和所有者,人類天生具有優(yōu)越性,超越自然萬物且與其他生物無倫理關(guān)系,所以道德是屬于人文的范疇,道德關(guān)懷的對(duì)象只能是人。各種非人類中心主義流派則提出了不同的見解。以彼得·辛格(PeterSinger)和湯姆·雷根(TomRegan)為代表的動(dòng)物解放和權(quán)利論者主張把道德關(guān)懷對(duì)象延伸至具有感知生命的動(dòng)物身上。泰勒(PaulW.Taylor)的生物中心主義則提倡把道德關(guān)懷的對(duì)象擴(kuò)大到一切有生命的存在。以利奧·波德(AldoLepold)的大地倫理學(xué)為代表的更加激進(jìn)的環(huán)境主義者認(rèn)為,自然界的所有事物都應(yīng)是道德的關(guān)懷對(duì)象,這也被稱為生態(tài)中心主義或生態(tài)整體主義。從非人類中心主義對(duì)道德對(duì)象的劃分標(biāo)準(zhǔn)來看,雖然人工智能并非傳統(tǒng)意義上的天然存在的東西,但是其具有和人類一樣的獨(dú)立思維和意識(shí),甚至是行為能力,能對(duì)環(huán)境產(chǎn)生各種可能的影響,所以,在強(qiáng)人工智能階段,人、人工智能與自然在道德上完全具有地位平等的可能性,不能片面地認(rèn)為人永遠(yuǎn)是人工智能與自然的主人,也不能說人工智能是自然的主人。在分析了直接涉及人的倫理問題后,我們還需分析人工智能與自然之間的道德關(guān)系。在前文我們論述了強(qiáng)人工智能與人共同成為道德主體的可能性,強(qiáng)人工智能是有理性的非人存在,自然是無理性的非人存在,那么無理性的非人存在的自然是否有成為道德主體的可能性呢?如前文所述,擁有理性的強(qiáng)人工智能具有內(nèi)在價(jià)值,因而具有成為倫理關(guān)照對(duì)象的可能。那么同樣是非人類存在的無理性的自然是否擁有內(nèi)在價(jià)值呢?如果有,則其具有成為道德關(guān)照的對(duì)象的可能性,反之則不能。關(guān)于內(nèi)在價(jià)值,西方倫理學(xué)家一般有以下四種解釋:一是可以讓主體感受到愉悅的內(nèi)在價(jià)值,也就是說某物或某種狀態(tài)能直接讓人或有意識(shí)的存在物具有愉快體驗(yàn),該物或該狀態(tài)就具有內(nèi)在價(jià)值,這種意義的內(nèi)在價(jià)值離不開有意識(shí)主體的評(píng)價(jià);二是基于其內(nèi)在屬性而具有的價(jià)值,即一個(gè)客體因?yàn)楣逃袑傩远鴵碛械膬r(jià)值;三是內(nèi)在價(jià)值是一種客觀價(jià)值,獨(dú)立于評(píng)價(jià)者的主觀評(píng)價(jià);四是指一種非工具性的價(jià)值,如果客體存在自身就是一種目的,而不是為了他者實(shí)現(xiàn)其目的,那么它就擁有內(nèi)在價(jià)值西方環(huán)境倫理學(xué)通常采用第四種概念,并稱之為天賦價(jià)值,當(dāng)一個(gè)存在物將自身當(dāng)作目的來維護(hù)時(shí),它自存在的那刻起就具有了內(nèi)在價(jià)值。從西方倫理學(xué)角度來看,自然物只要擁有生物學(xué)意義上的自我繁衍能力、生態(tài)學(xué)意義上的自我維持傾向、控制論意義上的自動(dòng)平衡功能,其就具有內(nèi)在價(jià)值。從這個(gè)角度看,無理性非人類存在的自然萬物擁有內(nèi)在價(jià)值,亦能成為道德關(guān)照的對(duì)象。雖然目前強(qiáng)人工智能與自然之間還沒有實(shí)現(xiàn)事實(shí)上的地位平等,但是,在強(qiáng)人工智能面世的未來的道德構(gòu)建中,二者之間平等的主體關(guān)系一定會(huì)得以體現(xiàn)。綜上所述,在未來的強(qiáng)人工智能階段,無論是就強(qiáng)人工智能體自身而言,還是從它與人類和自然界的關(guān)系來看,它都具備了成為道德主體的資格。因此,在從弱人工智能向強(qiáng)人工智能轉(zhuǎn)變的過程中,人工智能在生態(tài)倫理關(guān)系中的本質(zhì)也必將從“媒介”轉(zhuǎn)變?yōu)椤爸黧w”。第三節(jié)超級(jí)人工智能階段的倫理追問喬伊在2000年4月份發(fā)表了一篇名為《為何未來不需要我們》的文章?在文章中,他主要是對(duì)當(dāng)前的機(jī)器人技術(shù)、基因工程等方面的發(fā)展提出了未來社會(huì)的擔(dān)憂,通過他提出來的這些問題使得人們?cè)谶@方面產(chǎn)生了較為激烈的討論。有很多著名的研究學(xué)者都對(duì)人類的發(fā)展做出了警示,比如霍金或者蓋茨等,他們認(rèn)為人工智能的發(fā)展對(duì)人類在社會(huì)中的地位會(huì)產(chǎn)生一定的威脅,通過《巴拉特》中所講述的觀點(diǎn)來看,人工智能的發(fā)展將是人類在技術(shù)研發(fā)方面所形成的最后一種發(fā)明成果。他認(rèn)為,人工智能技術(shù)的發(fā)展會(huì)使得社會(huì)呈現(xiàn)智能爆炸的現(xiàn)象,進(jìn)而設(shè)計(jì)出超級(jí)人工智能,但是人類目前在防御超級(jí)人工智能方面并沒有非常絕對(duì)的法和手段。除非人類在社會(huì)發(fā)展中有著較好的運(yùn)氣和準(zhǔn)備,否則面對(duì)超級(jí)人工智能的出現(xiàn),我們是無法抵抗它對(duì)社會(huì)所帶來的改變的。人工智能“威脅論”出現(xiàn)的來源也被社會(huì)公眾進(jìn)行了討論。從這種觀點(diǎn)內(nèi)容的本質(zhì)上來說,帶有一定的技術(shù)決定論特點(diǎn),所以部分學(xué)者面對(duì)這方面的觀點(diǎn)討論也提出了批評(píng),只是當(dāng)前各位研究學(xué)者在分析人工智能發(fā)展時(shí)所體現(xiàn)出來的憂慮思考是經(jīng)過他們嚴(yán)肅認(rèn)真分析之后所形成的。這對(duì)人類技術(shù)的研究應(yīng)該起到一定的警示作用。一、“人”是否將重新被定義人工智能的出現(xiàn),使得“人”的概念更為模糊,如果未來真的出現(xiàn)了超級(jí)人工智能,那么“人”的定義就可以分為三類:一類是自然人;另一類是生物機(jī)器人;還有一類是機(jī)器人。如果從更為尖銳的層面探究問題的結(jié)論,當(dāng)未來社會(huì)中真的出現(xiàn)超級(jí)人工智能,未來人們對(duì)于人的概念認(rèn)知是否會(huì)發(fā)生變化。假設(shè)真的到達(dá)了人工智能的“奇點(diǎn)”,這對(duì)于人們社會(huì)的發(fā)展來說到底是一種福利,還是一種威脅。從這方面來看,應(yīng)該會(huì)產(chǎn)生兩種結(jié)論:第一種結(jié)論是這種人工技術(shù)的發(fā)展給人們社會(huì)帶來的是更多的福音。第二種結(jié)論就是對(duì)人類社會(huì)的發(fā)展帶來取代的威脅。首先,這種技術(shù)的出現(xiàn)會(huì)使得人們的生活更為舒適,有更高的便利性,我們對(duì)于人類所研發(fā)出來的這些技術(shù)創(chuàng)新會(huì)有更高的驚嘆度。其次,就算這種技術(shù)十分高級(jí),但人類也能夠?qū)λ麄儺a(chǎn)生一定的控制,所以在未來的生活中,通過這種技術(shù),人類可以不需要大量的勞作也能夠提升較好的物質(zhì)生活質(zhì)量。就像赫拉利在《未來簡(jiǎn)史》中提到的,人類技術(shù)的發(fā)展使致力于實(shí)現(xiàn)長(zhǎng)生不老以及獲得更高的快樂體驗(yàn)。人工智能技術(shù)的發(fā)展所創(chuàng)造出來的機(jī)器能夠聽從人類的指令,作為人類的仆人,幫助人類享受更為便利化的生活,通過人工智能的應(yīng)用能夠使得人類有更多的閑暇時(shí)間。人工智能僅僅是提供物質(zhì)服務(wù),而人類可以實(shí)現(xiàn)較多物質(zhì)財(cái)富的涌動(dòng),不需要考慮衣食住行等多方面的問題,每個(gè)人都能夠結(jié)合自己的需求得到相應(yīng)的物質(zhì),實(shí)現(xiàn)真正的社會(huì)公平,建設(shè)大同社會(huì)。甚至人類在這種社會(huì)中能夠具備不會(huì)被打破的物質(zhì)基礎(chǔ)環(huán)境,我們可以在社會(huì)環(huán)境中隨時(shí)“死去”和復(fù)活。還可以將自己的身體冷凍,然后選擇合適的時(shí)機(jī),在未來的社會(huì)中重新生存。又或者人們可以隨意更換自己的身體器官,也可以運(yùn)用一些不會(huì)產(chǎn)生損壞的軀體代替器官或者身體肢干。這樣人們?cè)谏钪胁粫?huì)再遭受惡劣環(huán)境的影響,可以進(jìn)入到其他的星球環(huán)境中開展生活活動(dòng)。也可以將自己變?yōu)榫奕耍蛘呤强s小到無形。在人類未來社會(huì)中擺脫空間限制的時(shí)候,時(shí)間對(duì)于人類的發(fā)展也就失去了意義,或許人們?cè)谖磥砟軌蚍獯孀约旱娜松洃?,隨意選擇自己的生活方式,但是在這種社會(huì)發(fā)展環(huán)境中,人們?cè)械那楦幸约皞惱砗妥匀魂P(guān)系都會(huì)被打破。人們?cè)谏钪袑?huì)享受絕對(duì)的自由,不會(huì)被任何物質(zhì)和規(guī)則所約束,在人們的生活中,將不需要理解命運(yùn)以及悲劇的存在。在這種生活環(huán)境中,物的力量無法發(fā)生作用,可以說是機(jī)器具備了物的力量,他們將作為我們新社會(huì)中的一種道德代理人,為人類提供服務(wù)。但是人們與人工智能之間所形成的平等關(guān)系也會(huì)消失,他們?cè)趯?duì)待人類時(shí)可能也會(huì)產(chǎn)生一定的差異,但是人類在選擇人工智能方面卻沒有了明確的標(biāo)準(zhǔn),人工智能可以選擇頭腦簡(jiǎn)單,沒有太強(qiáng)反抗能力的人類留存在社會(huì)中。他們也能夠?qū)θ祟惐4娴目陀^產(chǎn)物進(jìn)行閱讀和記憶,比如圖書或者音樂等,甚至他們能夠讀取人類的主觀記憶。但是人類并不能夠判斷人工智能是否能夠真正理解這些產(chǎn)物的含義。人類也無法評(píng)判人工智能對(duì)這些產(chǎn)物的興趣,他們?cè)谏钪惺欠駮?huì)繼續(xù)進(jìn)行技術(shù)的創(chuàng)新與創(chuàng)造,他們也許會(huì)繼續(xù)創(chuàng)造物質(zhì),但是有較大的概率不會(huì)遵循人類的創(chuàng)造意義進(jìn)行物質(zhì)的創(chuàng)新。因?yàn)樗麄儺吘古c人類還是存在一定的差異,所以人工智能的發(fā)展應(yīng)該更加傾向于人工智能的社會(huì)。當(dāng)然,從當(dāng)前的人們態(tài)度來看,支持極端觀點(diǎn)的人類群體較少,多數(shù)人還是站在中立的態(tài)度上看待這方面的問題,或者稍稍偏向樂觀與悲觀。但多
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 服務(wù)效率保障及技術(shù)支持承諾書(8篇)
- 科研成果轉(zhuǎn)化知識(shí)產(chǎn)權(quán)保護(hù)承諾書3篇
- 安徽大學(xué)《有機(jī)化學(xué)》2024 - 2025 學(xué)年第一學(xué)期期末試卷
- 2026四川成都都江堰首嘉醫(yī)院2月招聘12人備考題庫(kù)附參考答案詳解(能力提升)
- 2026上海第二工業(yè)大學(xué)管理崗等工作人員招聘10人備考題庫(kù)及參考答案詳解1套
- 安徽大學(xué)《材料物理》2024 - 2025 學(xué)年第一學(xué)期期末試卷
- 安徽建筑大學(xué)《材料物理》2024 - 2025 學(xué)年第一學(xué)期期末試卷
- 2026上半年重慶事業(yè)單位聯(lián)考重慶市屬單位招聘高層次和緊缺人才310人備考題庫(kù)及答案詳解(有一套)
- 2026內(nèi)蒙古呼和浩特航天經(jīng)濟(jì)開發(fā)區(qū)管理委員會(huì)招聘所屬國(guó)有企業(yè)管理人員2人備考題庫(kù)帶答案詳解(綜合題)
- 2026新疆博州賽里木湖信息科技服務(wù)有限責(zé)任公司招聘4人備考題庫(kù)帶答案詳解(典型題)
- 2026中國(guó)電信四川公用信息產(chǎn)業(yè)有限責(zé)任公司社會(huì)成熟人才招聘?jìng)淇碱}庫(kù)及參考答案詳解1套
- 2024年國(guó)企行測(cè)題庫(kù)
- 煙囪技術(shù)在血管腔內(nèi)修復(fù)術(shù)中的應(yīng)用
- 崗位聘用登記表
- 2023年全國(guó)統(tǒng)一高考政治試卷(新課標(biāo)ⅰ)(含解析版)
- 2023年北京高考語文答題卡(北京卷)word版可編輯kh
- 2023年高鐵信號(hào)車間副主任述職報(bào)告
- GB/T 5762-2012建材用石灰石、生石灰和熟石灰化學(xué)分析方法
- 第3章 圓錐曲線的方程【精簡(jiǎn)思維導(dǎo)圖梳理】高考數(shù)學(xué)高效備考 人教A版2019選擇性必修第一冊(cè)
- 劉一秒演說智慧經(jīng)典(內(nèi)部筆記)
- 管道TOFD檢測(cè)記錄及續(xù)表
評(píng)論
0/150
提交評(píng)論