版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
人工智能時代人體增強(qiáng)問題的道德哲學(xué)研究(10篇)第一篇:為了防范人類生存危機(jī),道德增強(qiáng)進(jìn)入了科技倫理議程中。由于生物醫(yī)學(xué)道德增強(qiáng)的諸多弊端,各種人工智能道德增強(qiáng)方案被陸續(xù)提出,分別為:人工智能作為人類道德決策的“替代者”“建議者”或“對話者”;“替代者方案”將導(dǎo)致道德消亡,阻礙道德進(jìn)步,但適用于危急情境;“建議者方案”會損害能動者的能動性,固化其道德觀念,但適用于日常決策;“對話者方案”能夠幫助用戶實現(xiàn)道德成長,但無法提供道德動力。混合式道德增強(qiáng)將各方案應(yīng)用于不同場景,在緊急狀態(tài)下調(diào)用“替代者”模式,在日常生活道德決策情境中喚醒“建議者”模式,在空閑時段進(jìn)入“對話者”模式,兼顧三種方案優(yōu)點又規(guī)避其缺陷。但混合式方案仍需要生物道德增強(qiáng)的輔助以提升用戶道德動機(jī),并被納為義務(wù)性培訓(xùn)的一部分。我們現(xiàn)今的世界正面臨著嚴(yán)峻的生存危機(jī),生物與核恐怖主義、資源枯竭以及氣候惡化的挑戰(zhàn)使人類必須尋求技術(shù)手段進(jìn)行自我拯救。最初,倫理學(xué)家將目光投向生物醫(yī)學(xué)領(lǐng)域,希望這些技術(shù)可以幫助人類實現(xiàn)道德增強(qiáng)。多年的哲學(xué)辯論揭示出,生物醫(yī)學(xué)道德增強(qiáng)技術(shù)仍不成熟,且具有嚴(yán)重的道德局限性。于是學(xué)者開始探索人工智能道德增強(qiáng),逐漸形成了三種不同的道德增強(qiáng)方案。我國是人工智能研究發(fā)展迅猛的經(jīng)濟(jì)體之一,但目前國內(nèi)學(xué)者還未充分探討人工智能道德增強(qiáng)。因此,在本文中,筆者通過批判性地回顧三種AI道德增強(qiáng)方案,以期引起學(xué)者對這一領(lǐng)域的重視與討論,進(jìn)而為國際哲學(xué)討論作出貢獻(xiàn)。本文首先梳理AI道德增強(qiáng)的理論背景,然后依次引介與批判三種方案——“替代者方案”“建議者方案”以及“對話者方案”。在揭示各種方案的缺陷及適用情境后,筆者將論證一種結(jié)合其各自優(yōu)勢的混合方案。一、道德增強(qiáng)的人工智能轉(zhuǎn)向工業(yè)革命以降,人類科技達(dá)到了空前的高度。科學(xué)上的突破使人類的影響力覆蓋全球并影響到遙遠(yuǎn)的未來。盡管科技為全球不斷增長的人口帶來了前所未有的福祉,也催生了一些前所未有的倫理問題。過度的消費(fèi)導(dǎo)致資源枯竭和氣候變暖。隨著科學(xué)知識的積累,極端恐怖主義分子可能掌握核武器或生物武器技術(shù),而對無辜的生命造成終極傷害。許多學(xué)者認(rèn)為,這些倫理問題若得不到解決,將會嚴(yán)重影響人類未來的福祉,甚至可能危及人類的生存。然而,我們的道德心理難以應(yīng)對這些挑戰(zhàn)。盡管我們生活在科技高度發(fā)達(dá)的社群,但我們的道德心理卻是為了在小型、緊密且技術(shù)較原始的社群中生活而演化出來的。這種演化的不匹配(mismatch)主要體現(xiàn)在我們的心理傾向和偏見上。例如,我們的道德視野狹窄,關(guān)注的重點主要集中在我們自己及親友將要發(fā)生的事情上。相反,我們鮮少關(guān)懷陌生個體與更大集體所遭受的痛苦;我們對未來世代與非人類動物的道德回應(yīng)也不夠充分。我們有自私、裙帶關(guān)系、仇外與小團(tuán)體主義等排他性心理傾向。這種心理傾向阻礙我們進(jìn)行大規(guī)模的合作以應(yīng)對恐怖主義和氣候惡化這類問題。在這種情況下,托馬斯·道格拉斯(ThomasDouglas)和英格馬爾·佩爾松(IngmarPersson)等在2008年提出了通過生物醫(yī)學(xué)技術(shù)提升人類道德能力的觀點。自那時以來,圍繞生物道德增強(qiáng)的辯論在西方學(xué)界逐漸升溫,藥物、神經(jīng)技術(shù)、基因編輯等各種各樣的道德增強(qiáng)方案被陸續(xù)提出。由于我們的核心道德傾向——利他主義和公正感——是生物學(xué)上的特征,一些道德增強(qiáng)的支持者提出,可以通過生物醫(yī)學(xué)的手段(如藥物、神經(jīng)技術(shù)、基因編輯),增強(qiáng)我們的利他主義傾向?;蛘?,可以利用生物醫(yī)學(xué)技術(shù)增強(qiáng)我們的公正感或公平感,即調(diào)整我們某些“以牙還牙”的傾向,使我們更適當(dāng)?shù)乇磉_(dá)感激、憤怒和寬恕等情緒。他們認(rèn)為,通過這樣的方式,我們將有足夠的道德動機(jī)去克服意志力薄弱(weaknessofwill),從而更好地履行我們的道德責(zé)任。然而,各種生物醫(yī)學(xué)道德增強(qiáng)手段的效果往往是微小的、短暫的,且高度依賴情境。這些手段還帶有嚴(yán)重副作用。因此,在我們可以放心地使用生物醫(yī)學(xué)干預(yù)進(jìn)行道德增強(qiáng)之前,還有大量的科學(xué)工作要做。無論是藥物、神經(jīng)技術(shù)還是基因編輯,這些增強(qiáng)道德動機(jī)的方式都會侵犯到個人的自由。道德動機(jī)增強(qiáng)就像一臺“上帝機(jī)器”,使人們在心理上無法選擇作出不道德的行為,這無疑會壓抑個人的自主性(autonomy)和道德能動性(moralagency)。為了在保障個人自主性的前提下進(jìn)行道德增強(qiáng),一些哲學(xué)家轉(zhuǎn)而推崇用生物醫(yī)學(xué)手段來增強(qiáng)人們的道德認(rèn)知能力。由于技術(shù)不成熟,腦部刺激等神經(jīng)技術(shù)也無法用于增強(qiáng)道德認(rèn)知。綜合看來,在當(dāng)前科技水平下,進(jìn)行道德增強(qiáng)仍是遙不可及的目標(biāo),同時還涉及侵犯個人自由的道德問題。生物醫(yī)學(xué)道德增強(qiáng)的不足,使許多學(xué)者將眼光投向了近十幾年迅速發(fā)展的人工智能領(lǐng)域,認(rèn)為該領(lǐng)域的進(jìn)步能幫助人類走出當(dāng)前的倫理困境。一些堅定的生物道德增強(qiáng)的支持者如薩維列斯庫(JulianSavulescu),甚至轉(zhuǎn)向支持人工智能(AI)道德增強(qiáng)。二、人工智能道德增強(qiáng)的三種現(xiàn)有方案人工智能在道德增強(qiáng)研究的語境下,指的是“無處不在的計算”或“環(huán)境智能”,即一個系統(tǒng)收集多個傳感器和數(shù)據(jù)庫的信息,并根據(jù)這些信息與系統(tǒng)用戶所需功能之間的相關(guān)性來處理它們。為了利用AI來使個人變得更加道德,倫理學(xué)家們提出了AI道德增強(qiáng)的不同方案。根據(jù)人工智能在人類道德推理與決策中的不同角色,這些方案大致可以歸為三類:人工智能作為“替代者”“建議者”或“對話者”。1.人工智能作為替代者機(jī)器倫理學(xué)(machineethics)研究者為AI道德增強(qiáng)提供了第一種方案。機(jī)器倫理最初的目的并不在于人類道德增強(qiáng),而是將機(jī)器變成真正的道德決策者。其支持者認(rèn)為,由于AI的道德決策具有持續(xù)的公正性(impartiality)、一致性(consistency),且不受情感影響,它們在道德推理方面會比人類更加出色。AI也不受人類道德心理局限性的困擾:它們不會因以自我為中心或偏袒派系成員(ingroupmembers)而作出非理性的道德決策。此外,機(jī)器也不會因為持續(xù)作道德判斷而感到疲倦。一些機(jī)器倫理學(xué)家因此建議創(chuàng)建具有優(yōu)于人類道德能力的自主人工智能,并用這種AI來全面替代人類作道德決策,從而增強(qiáng)人類的道德行為。一些機(jī)器倫理的忠實擁護(hù)者如埃里克·迪特里希(EricDietrich)甚至提議使人類完全滅絕,以創(chuàng)造一個只有道德機(jī)器人居住的更好世界。他認(rèn)為,大多數(shù)人類由于其生物條件的限制,無法實現(xiàn)以道德的方式?jīng)Q策與行動。自利、偏心等道德心理使人類在決策時往往偏袒自己或親友的利益;而道德機(jī)器人并不將自身視為宇宙中心,因而能從無私的(disinterested)觀點出發(fā)來決策與行事。根據(jù)“替代者方案”,系統(tǒng)設(shè)計者首先要預(yù)設(shè)一種有效的、正確的道德觀念,并根據(jù)這種道德觀念來配置AI,以此指導(dǎo)人類的道德實踐。在系統(tǒng)編寫完畢之后,要做正確的事情,人類只需要完全服從AI的指令。這種方案的核心就在于,包括設(shè)計者在內(nèi)的所有人類參與者,在初始編程完成后,都應(yīng)該采取被動的角色,聽從AI的道德建議。除了決定允許AI為我們作決策之外,我們不需要花費(fèi)任何心理或行為上的努力來達(dá)到期望的道德增強(qiáng)。人類可以通過讓AI直接控制我們的行為來執(zhí)行這些決策,比如通過腦機(jī)接口來讓AI直接主導(dǎo)我們的行動。我們也可以通過政治系統(tǒng)來懲罰任何偏離AI要求的舉動,從而間接地使AI控制我們的行為。“替代者方案”在倫理上飽受爭議。首先,“替代者”AI根據(jù)系統(tǒng)設(shè)計者所預(yù)設(shè)的道德觀念來進(jìn)行道德推理,然而許多人可能并不接受這種道德觀念。當(dāng)AI替代與之持不同道德觀念的用戶作道德決策時,它將系統(tǒng)設(shè)計者的道德觀強(qiáng)加在他們之上,違背后者的自主性(autonomy)。有人可能會爭辯說,這并不必然是個問題,因為多個系統(tǒng)設(shè)計者可以開發(fā)出多個系統(tǒng)。這樣的話,不同用戶可以自己決定使用哪個系統(tǒng)。然而,這會扼殺不同道德觀念之間對話與協(xié)調(diào)的可能性。根據(jù)“替代者方案”,我們的道德決策權(quán)完全交托給了AI,因而我們放棄了在不同的系統(tǒng)對一個道德問題提供不同解決方案的情況下,達(dá)成任何協(xié)議的可能性。更重要的是,由于失去了對話與達(dá)成協(xié)議的可能性,“替代者方案”也扼殺了道德進(jìn)步的可能性。人類道德觀念的演化與進(jìn)步往往是在不同觀點的交鋒與協(xié)調(diào)之間逐步產(chǎn)生的,這就是約翰·密爾(JohnStuartMill)贊頌自由思想市場(thefreemarketofideas)的動機(jī)。在AI全面替代人類的道德推理活動后,人們不再共同進(jìn)行道德慎思(moraldeliberation),自由思想市場將不復(fù)存在。即使今時今日的人類在某些道德判斷上存在共識,在未來的某個時刻這種判斷可能不再被接受。由于AI無法自動更新其決策模型,如果讓AI來替代人類決策,我們會被困在一個靜態(tài)的道德觀念中。最后,“替代者方案”將會導(dǎo)致道德能力的喪失。將我們的道德決策“外包”給AI,這種行為會逐漸弱化我們的道德技能(moralde-skilling)。由于道德決策全由AI來執(zhí)行,人類在道德推理上的卓越將不再會被重視。我們也因此無法再享受亞里士多德所認(rèn)可的美好生活中一個基本要素:過一種由實踐發(fā)展而來的道德理解所主導(dǎo)的生活??偠灾?,“替代者方案”將導(dǎo)致道德本身的消亡,因為道德決策不再由人類而是由道德AI作出,人類儼然成為了AI的追隨者。既然人們已經(jīng)放棄了他們的道德自主性,扼殺了道德進(jìn)步的可能性,道德增強(qiáng)也無從談起。不過,在一些十分緊急的道德困境中,“替代者方案”也有其可取之處。例如,一位反恐警察在公共空間中面對一名攜帶大規(guī)模殺傷性武器的恐怖分子時,可能會受到厭惡傷害他人的心理傾向之影響,從而未能及時采取行動消除恐怖分子的威脅,導(dǎo)致大量無辜生命的傷亡?!疤娲摺盇I在這種情境中可以迅速作出道德決策,促使能動者及時采取措施。AI道德增強(qiáng)的核心動機(jī)是幫助人類規(guī)避環(huán)境惡化與恐怖主義所引起的生存危機(jī)。在與這些危機(jī)高度相關(guān)的緊急事態(tài)中,我們可以正當(dāng)?shù)?bejustifiedin)將決策權(quán)讓渡給道德AI。2.人工智能作為建議者為了彌補(bǔ)“替代者方案”對人類自主性的剝奪與對道德能力的侵蝕,一些AI道德增強(qiáng)的支持者如薩維列斯庫等,提出了人工智能作為道德決策建議者的方案。根據(jù)這種方案,用戶需要向AI提供其個人道德準(zhǔn)則作為后者進(jìn)行道德推理的依據(jù)。根據(jù)用戶個人的道德標(biāo)準(zhǔn),AI進(jìn)行道德推理并為用戶提供建議,以供后者在作決策之前參考。道德增強(qiáng)的重要推動者——朱利安·薩維列斯庫——是這一方案的積極倡導(dǎo)者。在他與漢娜·馬斯倫(HannahMaslen)的合著文章中,他們從價值多元論出發(fā),設(shè)想人類用戶可以從AI所提供的以下價值中進(jìn)行選擇,并對其重要性進(jìn)行自主排序:仁慈(benevolence-helpingothers);非惡意(non-malevolence-notharmingothers);正義或公平(justice/fairness);合法性(legality);環(huán)境保護(hù)(environmentalprotection);家庭或重要關(guān)系(family/significantrelationships);執(zhí)行義務(wù)、承諾或諾言(fulfillingduties/commitments/promises);最大化凈效用(maximisingnetutility-makingsureoverallbenefitsoutweighoverallcosts);他人的自主性(autonomyofothers)。依據(jù)用戶對這些價值的選擇與排序,道德AI會作出相應(yīng)道德推理并推薦與用戶價值體系一致的道德決策。通過允許用戶自主選擇其AI所遵循的特定價值體系,薩維列斯庫與馬斯倫希望盡可能地保障人類道德抉擇與行動的自主性。然而,從價值多元主義的角度看,世間各種事物和行為所包含的道德價值種類,遠(yuǎn)超出薩維列斯庫與馬斯倫所列出的價值清單。比方說,一位虔誠的天主教徒可能將上帝的恩寵(grace)與天國的至善視為最為崇高的價值。既然兩位作者從價值多元主義出發(fā),他們也不應(yīng)將這種準(zhǔn)自由主義(quasi-liberal)價值觀中摻雜進(jìn)道德AI的設(shè)計方案中。由于意識到這種設(shè)計方案的缺陷,薩維列斯庫與阿爾貝托·朱比利尼(AlbertoGiubilini)在后續(xù)文章中建議,我們應(yīng)該提供不同版本的系統(tǒng)以供用戶選擇,使用戶可以根據(jù)他們的價值來選擇他們希望采用的版本。根據(jù)這種設(shè)計方案,道德AI在某些方面如同一個理想的觀察者,比如它對非道德事實(non-moralfacts)是全知全覺的(omniscientandomni-percipient),即能夠視覺化、想象并同時使用所有信息。同時,在作道德推理時,AI也是無私(disinterested)且不帶情緒的(dispassionate),同時能保持道德判斷的一致性(consistency)。與理想觀察者不同的是,薩維列斯庫與朱比利尼所設(shè)想的AI在進(jìn)行道德判斷時不是基于某種理想觀察者的視角,而是依賴其用戶的道德價值觀。為了解決某些用戶可能持有扭曲的道德觀念這個難題,兩位作者提出兩種策略。根據(jù)第一種策略,我們在編寫道德AI時須咨詢一群道德專家。這些道德專家可以決定將哪些基本的道德原則或約束條件作為基本過濾器置入AI之中。在這些約束之內(nèi),不同用戶憑借自己的道德觀念來設(shè)置AI,以便AI提供定制的道德建議。根據(jù)第二種策略,道德專家將更加實質(zhì)性的道德原則輸入到AI中。例如,我們可以想象,一個天主教道德專家輸入的標(biāo)準(zhǔn)會幫助一個用戶遵守天主教教義,或者一個功利主義哲學(xué)家運(yùn)用功利主義原則給AI編程。每個用戶都能自主選擇使用哪個版本的AI,而無須自己決定用哪些具體的原則來指導(dǎo)AI的道德推理。例如,有些人只想成為好的天主教徒,但不確切知道在不同情況下應(yīng)用哪些原則。一個天主教道德AI會幫助他們的行為與他們的基本道德觀念保持一致。雖然“建議者方案”相較于“替代者方案”,更加尊重個人的自主性,但它仍存在嚴(yán)重的缺陷。第一,用戶的角色仍然過于被動。一旦用戶選擇了他們愿意接納的價值觀,他們的能動性只剩下決定是否接受AI道德推理得出的建議。由于用戶不需要理解他們的價值觀與AI所作的決策之間的理性聯(lián)系,他們的道德技能無法大幅提升?!敖ㄗh者方案”主要關(guān)注的是幫助用戶作出正確的道德決策,而非助力用戶成為更優(yōu)秀的道德能動者,如果有一天AI停止運(yùn)作,用戶可能無法作出比他們最初就能作出的更好道德決策。第二,一旦用戶確定了AI所依據(jù)的價值框架,AI將僅推薦符合這種框架的決策,而不是鼓勵用戶質(zhì)疑這個框架。薩維列斯庫與馬斯倫也認(rèn)識到了這一點,因而他們寫道,使用機(jī)器可能會鼓勵人們順從,而不是進(jìn)行“深入反思”。人們通常就不愿意改變自己價值觀念,如果他們認(rèn)為自己的決策是基于可靠AI的建議,他們會更加不愿意改變。雖然“建議者方案”允許不同觀點的多樣性,容納了一定程度的個人自主性,但很難看出它如何能夠促進(jìn)不同價值觀念之間的對話與協(xié)調(diào),如何促進(jìn)道德進(jìn)步。即使“建議者方案”具有上述缺陷,它也有一定可取之處,適用于特定情境。首先,很多時候人們并非不想行道德之事,而是缺乏認(rèn)知能力去弄清在特定情境中采取哪些行為才符合自己的道德標(biāo)準(zhǔn)。在這些情況下,“建議者”AI可以減輕用戶的認(rèn)知負(fù)擔(dān),幫助用戶輕松作出符合其道德觀念的行動。而且,即使人們不使用“建議者”AI,他們也很少修正自己的價值觀念。在這種前提下,雖然道德AI需要增添其他功能來促使用戶進(jìn)行道德反思,但在日常生活中輔助用戶作出符合自身價值觀念的道德決策也是可取的(desirable)。3.人工智能作為對話者由于“替代者方案”與“建議者方案”都無法完全做到尊重用戶的自主性,也無法推動道德反思與道德進(jìn)步,弗朗西斯科·拉拉(FranciscoLara)提出了道德AI作為人類對話者——蘇格拉底式AI——的方案。這種方案從蘇格拉底式對話(dialogue)中獲得啟發(fā),將AI作為一種與用戶對話來幫助其道德成長(moraldevelopment)的工具,而不是作為預(yù)編的(preprogrammed)道德原則或價值清單的存儲庫。在蘇格拉底哲學(xué)中,蘇格拉底被視為一個助產(chǎn)士,幫助對話者產(chǎn)出他們自己的知識。按照“對話者方案”,AI避免根據(jù)某種既定道德觀念為用戶作決策或提供建議,而是鼓勵用戶自己進(jìn)行道德推理。不過,當(dāng)用戶的道德推理中存在經(jīng)驗論據(jù)和邏輯推導(dǎo)的錯誤,或者用戶使用可疑的道德原則時,AI會質(zhì)疑用戶。它會敦促用戶重新考慮證據(jù)和論證,以此來幫助他們提升自己的道德判斷能力。具體來說,一個“對話者”AI具有以下關(guān)鍵功能。①提供經(jīng)驗支持。AI有能力快速處理大量數(shù)據(jù),可以在用戶的道德判斷違背經(jīng)驗證據(jù)(empiricalevidence)時,敦促他們修改判斷,使之與事實更加一致。②提高概念明晰度。道德判斷常常包含模糊的概念。AI可以通過引用廣泛的語言資源和專家道德建議來幫助澄清這些概念。③理解論證邏輯。AI可以評估用戶論證的邏輯結(jié)構(gòu)。通過揭示邏輯缺陷或謬誤,AI可以幫助用戶提高他們的論證嚴(yán)謹(jǐn)性。④鼓勵道德一致性。AI可以敦促用戶確保他們在某一特定情境下的道德判斷與賦予所有判斷融貫性(coherence)的最終價值標(biāo)準(zhǔn)相契合。⑤測試道德的合理性。AI可以將規(guī)范倫理學(xué)現(xiàn)有理論存入數(shù)據(jù)庫,從而在用戶道德推理明顯偏離主流觀點時予以警告,促使用戶重新考慮他們的立場。⑥提高對個人局限性的意識。通過監(jiān)控生物和環(huán)境因素,AI可以告知用戶可能會影響他們道德思考的負(fù)面因素,如睡眠不足、饑餓或壓力等。⑦就執(zhí)行道德決策提供建議。如同商業(yè)和醫(yī)學(xué)領(lǐng)域的AI應(yīng)用,AI可以幫助用戶將道德決策轉(zhuǎn)化為實際行動。例如,它可以預(yù)測某決策對他人和環(huán)境的潛在影響,從而幫助用戶在行為與道德判斷上保持一致??偟膩碚f,“對話者方案”重新設(shè)想了人工智能與人類用戶的互動方式,避免了預(yù)設(shè)任何道德觀念。它強(qiáng)調(diào)用戶與AI進(jìn)行持續(xù)對話,以此優(yōu)化用戶自身的道德觀念。這種方案的最終目標(biāo)是在不預(yù)設(shè)任何倫理立場的前提下,幫助個人發(fā)展出更好的道德決策能力。AI的角色是通過提問來揭示用戶論點中潛在的缺陷,從而改進(jìn)用戶的道德推理過程。該方案在兩個主要方面與其他AI道德增強(qiáng)方案顯著不同。一是它賦予用戶更高程度的參與性——能動者與AI共同商議,而不是AI代替能動者作決策。二是它強(qiáng)調(diào)了AI的塑造性角色(formativerole),幫助用戶在道德推理上取得精進(jìn)。綜上所述,筆者認(rèn)為“對話者方案”是當(dāng)前所有AI道德增強(qiáng)提議中最為可取的,它既保證了用戶的自主性,又能夠推動用戶的道德成長與社會層面上的道德進(jìn)步;但這種方案仍有其弊端。首先,道德對話需要大量時間,以及用戶自身的深入反思。這種AI無法幫助用戶及時作出決策,只適用于在用戶面臨道德難題前為其提供預(yù)訓(xùn)練(pre-training)。其次,很多時候人們作出違背道德的決策與行動,是因為缺乏道德動機(jī),而“對話者”AI只能在非常有限的程度內(nèi)激勵用戶行道德之事。最后,人們不只缺乏道德行動的動機(jī),也往往缺乏進(jìn)行深入道德思考的動力?!皩υ捳摺盇I由于不向用戶直接提供答案,而是敦促后者自己推理與決策,在繁忙生活外進(jìn)一步占據(jù)用戶精力與時間,因而會進(jìn)一步降低人們使用這種工具的動機(jī)(demotivation)。換言之,很多人可能會選擇不與道德AI進(jìn)行對話,而是選擇根據(jù)自己的情緒與直覺來作道德判斷。如此一來,道德增強(qiáng)也無從談起。三、作為更優(yōu)替代的混合進(jìn)路到目前為止,筆者已經(jīng)批判性地梳理了三種AI道德增強(qiáng)方案的優(yōu)缺點?!疤娲摺盇I可以在危急情況下代替能動者作出合理道德決策,但會侵蝕能動者的自主性,阻礙道德成長與進(jìn)步,甚至導(dǎo)致道德能力的喪失?!敖ㄗh者”AI將能動者自身的價值觀念采納為自己的運(yùn)作模型,一定程度上保留了能動者的道德自主性,但無法提升能動者的道德判斷與反思能力,因而只適合用于在日常生活中為能動者降低道德認(rèn)知負(fù)擔(dān)?!皩υ捳摺盇I能夠通過預(yù)訓(xùn)練幫助能動者反思與修正自己固有價值觀念,但無法向其提供道德行動與反思的動機(jī)。為了尋求一種更加優(yōu)越的方案,我們需要將三種方案置于道德增強(qiáng)的大背景中進(jìn)行考量。道德增強(qiáng)的最終目的是防范環(huán)境惡化與大規(guī)??植酪u擊等人類生存危機(jī)。結(jié)合這種理論動機(jī),筆者認(rèn)為幾種方案在不同情境中各盡其職是當(dāng)前的最優(yōu)解。第一,有些道德情境要求能動者作出及時果斷的決策,比如本文中反恐警察的例子。如果在某些情境中,不及時采取某些行為會造成環(huán)境的極大破壞或大量無辜生命的傷亡,道德AI應(yīng)該代替躊躇不定的用戶作出明確的判斷并主導(dǎo)其行動。第二,大部分日常生活中的道德情境也與人類生存危機(jī)息息相關(guān),卻不要求當(dāng)機(jī)立斷的決策。例如,我們是否將垃圾合理地分類、執(zhí)法人員是否適當(dāng)?shù)乇O(jiān)督高危人群。在這些情境中,“建議者”AI可以根據(jù)其獲取與存儲的信息——如垃圾分類法規(guī)、攜帶高危物品的概率等——結(jié)合能動者自身的道德觀念或訴求,為他們提供道德建議。第三,生存危機(jī)的緩解最終要依靠能動者自身的道德成長與社會整體的道德進(jìn)步。因此,AI仍須在能動者面臨道德情境或困境之前就為其提供倫理訓(xùn)練。“對話者”AI很好地實現(xiàn)了這種功能。綜上而言,混合式道德增強(qiáng)AI提供了一種更為可取的進(jìn)路。這種方案在緊急狀態(tài)下調(diào)用“替代者”AI,在日常生活道德決策情境中喚醒“建議者”AI,而在能動者空閑時段進(jìn)入“對話者”模式,從而在生活的不同方面幫助人類作出更好的道德決策?;旌鲜紸I最難以實現(xiàn)的乃是其“對話者”功能。但是,唐納德·西爾林(DonaldSearing)開發(fā)的伊索斯(Ethos)程序、圣克拉拉大學(xué)開發(fā)的倫理決策助手程序以及達(dá)克斯·科沃特(DaxCowart)程序等成功嘗試從實踐角度說明了混合式方案的有效性。不過,一些人可能會從技術(shù)或價值的角度質(zhì)疑混合方案。一是將三種AI增強(qiáng)方案融合進(jìn)同一個道德AI程序在技術(shù)上是否可能?二是這種混合進(jìn)路是否同時繼承了三種方案各自的不足?1.技術(shù)可行性三種AI道德增強(qiáng)方案的核心都在于增強(qiáng)人類道德能力,并不存在本質(zhì)上的差異。它們之間的差別僅僅在于AI在多大程度上主導(dǎo)人類的道德決策過程。根據(jù)“替代者方案”,人類將道德決策過程完全交予AI,自己只扮演執(zhí)行角色。根據(jù)“建議者方案”,人類依然掌控自己的道德決策過程,AI僅起到參謀的作用。根據(jù)“對話者方案”,AI不直接干預(yù)人類道德決策,而是在決策情境前培訓(xùn)能動者,提高其道德決策能力。既然這三種方案的差異僅在于AI對決策過程的干預(yù)程度,事實上可以集成到同一個道德增強(qiáng)程序之中,依據(jù)不同情境調(diào)用不同模式。我們可以用智能汽車為例來說明。這類汽車?yán)闷滠囕d傳感器來感知用戶的駕駛環(huán)境。在緊急狀況時,它能替代駕駛員作出自動剎車或迅速調(diào)整方向等操作。在日常駕駛中,智能汽車可以為駕駛員提供巡航速度、路線選擇與安全駕駛等方面的建議。在非駕駛場景下,智能汽車也可以為用戶提供駕駛培訓(xùn)和安全教育。將這些功能集成于車載AI系統(tǒng)并不存在技術(shù)上的阻礙。同理,一個道德AI系統(tǒng)在技術(shù)上完全可以融合“替代者”“建議者”與“對話者”三種功能,并利用傳感器來感知用戶的實際情境,從而在這三種功能中進(jìn)行智能切換。2.混合式AI的價值這種混合進(jìn)路可能會面對如下質(zhì)疑:即使該進(jìn)路能將三種現(xiàn)有方案運(yùn)用于其各自適用的場景,它也因此同時具有三種方案的缺陷。然而,這樣的擔(dān)憂并不成立。首先,混合式AI只會在涉及嚴(yán)重環(huán)境破壞或大量無辜生命受到威脅的情況下啟動“替代者”模式。這意味著混合式AI不會如同“替代者方案”一樣,嚴(yán)重侵害用戶的自主性和道德能力。其次,雖然在日常道德場景中,混合式AI會根據(jù)用戶的價值觀給出建議,但在非道德決策情境中,它會調(diào)用“對話者”模式,輔助用戶更深入地審視自己的道德觀點,并促進(jìn)不同觀點之間的交流和協(xié)同。因此,與“建議者方案”不同,混合式AI最終能推動而非阻礙用戶道德成長與社會道德進(jìn)步。再次,混合式AI的“對話者”模式能夠通過提供經(jīng)驗支持、提高概念清晰度和幫助用戶理解論證邏輯等功能,提升用戶的道德推理和決策能力,助其成為更出色的道德能動者。最后,由于“建議者”模式在日常生活中大大降低了用戶的道德認(rèn)知負(fù)擔(dān),這將提高用戶對混合式AI的黏性,進(jìn)而增加他們使用“對話者”模式的可能性,從而規(guī)避了“對話者方案”無法激起道德反思動機(jī)之弊病。綜上而言,混合式AI既能在危急時刻推動人類用戶迅速應(yīng)對,又能在日常生活中確保用戶保護(hù)環(huán)境、防范風(fēng)險。最關(guān)鍵的是,通過倫理培訓(xùn),“對話者”模式最終能幫助用戶培養(yǎng)出卓越的道德決策能力、德行(virtues)與行為習(xí)慣,從而進(jìn)一步降低他們對“替代者”“建議者”模式的依賴,如同得到充分培訓(xùn)的駕駛員無須再使用智能汽車的輔助模式一般,以自主的姿態(tài)應(yīng)對新時代的倫理困境。3.混合式AI的局限與對策雖然混合式AI發(fā)揮三種方案各自的優(yōu)勢,又規(guī)避了其缺陷,但它很大程度上是從道德認(rèn)知一端增強(qiáng)能動者的道德決策與行動能力。然而,很多時候能動者缺乏的是行道德之事的動機(jī)。同時,雖然“建議者”模式通過使日常道德決策便利化,增進(jìn)了用戶對混合式AI的黏性,從而提高了用戶使用“對話者”模式的可能性,但這種可能性仍然無法確保用戶有利用該模式進(jìn)行道德反思的充分動力??偠灾?,混合式AI在一定程度上,仍然面臨“對話者方案”的經(jīng)典困境:如何解決用戶缺乏道德行動與反思之動機(jī)這個難題?筆者主要有兩點建議。首先,我們不能把AI道德增強(qiáng)視為一個自足的(self-contained)的解決方案。它所增強(qiáng)的主要是我們的(道德)認(rèn)知能力。雖然形成正確的道德觀念一定程度上能提升我們行道德之事的動機(jī),但人類具有意志力薄弱的天性,常常無法依據(jù)自身道德信念行事。與AI道德增強(qiáng)相反,生物醫(yī)學(xué)道德增強(qiáng)主要是從動機(jī)端增強(qiáng)人們的道德能力。這兩種增強(qiáng)手段形成了良性互補(bǔ)。既然當(dāng)前人類科技水平還未能提供安全有效的生物醫(yī)學(xué)增強(qiáng)手段,我們須開展實質(zhì)性科學(xué)研究來開發(fā)更好的生物醫(yī)學(xué)增強(qiáng)方案。其次,針對能動者缺乏反思其價值體系的動機(jī)這個問題,將AI道德訓(xùn)練作為義務(wù)性培訓(xùn)的一部分非常有必要。義務(wù)教育時期是道德社會化最重要的階段,各國的教育體系鮮少把道德培育課程排除在外。相對于人類教師,既然道德AI在事實信息、邏輯嚴(yán)謹(jǐn)度、對規(guī)范學(xué)說的掌握等方面更加優(yōu)越,又不會受人類情緒與偏見的影響,我們有充分的理由將它作為義務(wù)道德培育的輔助手段。此外,這種義務(wù)性(obligatory)培訓(xùn)可以延伸到包括高等教育、職業(yè)培訓(xùn)、資質(zhì)審核等生活的各個方面與人生的各個階段。義務(wù)性培訓(xùn)通過從外部為人們提供激勵,從而增進(jìn)人們利用道德AI進(jìn)行道德反思的動機(jī)。四、結(jié)語道德增強(qiáng)的哲學(xué)論辯起源于倫理學(xué)家對人類生存危機(jī)的憂慮。由于生物醫(yī)學(xué)道德增強(qiáng)在技術(shù)與道德上的缺陷,學(xué)者逐漸將目光轉(zhuǎn)向了人工智能道德增強(qiáng),提出了人工智能作為人類道德決策的“替代者”“建議者”與“對話者”三種方案。然而,這三種方案各具缺陷,沒有一種能夠單獨(dú)承擔(dān)起道德增強(qiáng)的重任。為了有效地防范生存危機(jī),我們應(yīng)該綜合考慮不同方案的優(yōu)缺點,發(fā)展出一款在不同情境下發(fā)揮不同功能的混合式AI。不過,由于混合式AI在增強(qiáng)道德動機(jī)上有局限性,我們也需要改良生物醫(yī)學(xué)增強(qiáng)技術(shù),以期在未來能有效地增進(jìn)人類道德動機(jī)。同時,在我們開發(fā)出理想的混合式AI之后,也應(yīng)利用義務(wù)性培訓(xùn)的方式激勵人們接受AI道德訓(xùn)練,以進(jìn)一步提升道德反思的積極性與深度。不過,為了混合式AI更好地提升人類道德能力,其設(shè)計應(yīng)該據(jù)什么原則,以及如何防范AI道德增強(qiáng)在侵犯隱私、受開發(fā)者操縱、弱化個人道德責(zé)任等方面的風(fēng)險仍是學(xué)界亟須共同探討的話題。第二篇:“人類增強(qiáng)”的哲學(xué)思考:高科技時代如何守護(hù)人性當(dāng)科技改造力量指向了人類自身,人還是不是科技發(fā)展的目的?在元宇宙里,如何安放人的身體?近日,在上海社會科學(xué)院舉行的“人類增強(qiáng)與人本主義的未來”學(xué)術(shù)研討會暨新書發(fā)布會上,上海社會科學(xué)院哲學(xué)研究所副所長、科技哲學(xué)創(chuàng)新團(tuán)隊首席專家成素梅研究員認(rèn)為,智能文明時代是科技高度發(fā)達(dá)的時代,更是一個守護(hù)人性的時代。怎么理解人性,怎么理解人本身,是技術(shù)必須要回答的大問題和難問題。以人工智能為核心的第四次技術(shù)革命的深化發(fā)展,不僅重新定義了我們時代的技術(shù),迎來了技術(shù)發(fā)展的新時代,它還在將人類文明的演進(jìn)方向從工業(yè)文明時代和信息文明時代全面推向智能文明時代。智能文明越向縱深發(fā)展,在工業(yè)時代形成的概念范疇的解釋力日漸疲弱,其社會運(yùn)行與管理機(jī)制的適用性短板則日益顯露。隨著人工智能、大數(shù)據(jù)、云計算、區(qū)塊鏈、量子信息、合成生物學(xué)、基因編輯、神經(jīng)科學(xué)、腦機(jī)接口、再生醫(yī)學(xué)等技術(shù)的深度發(fā)展,人類不只是有能力控制與利用外部自然,而是在改變著人類身體——這個內(nèi)部自然,人類增強(qiáng)技術(shù)正是這一趨勢的代表。成素梅表示,人文研究涉及現(xiàn)代科技主題時應(yīng)避免缺少客觀依據(jù)的臆測成分,人文學(xué)者要對科技前沿和進(jìn)展做準(zhǔn)確和細(xì)致的把握,這樣才能客觀地來評價科技發(fā)展和意義。人類增強(qiáng)技術(shù)提出的是人的精神是否可以被技術(shù)化的難題,這其中蘊(yùn)含了許多悖論,因為人類增強(qiáng)技術(shù)的根本特征就是自反性。智能文明時代是科技高度發(fā)達(dá)的時代,更是一個守護(hù)人性的時代。但怎么理解人性,怎么理解人本身,這個是從人類增強(qiáng)這個話題引出的一個技術(shù)必須要回答的大問題和難問題,值得進(jìn)一步探索。此外,她還介紹了上海社會科學(xué)院科哲創(chuàng)新團(tuán)隊“智能文明時代的哲學(xué)探索叢書”的出版計劃,《增強(qiáng)、人類與后人類未來——關(guān)于人類增強(qiáng)的哲學(xué)探索》作為叢書的第一本率先與讀者見面,這套叢書將是科哲創(chuàng)新團(tuán)隊在上海社科院第二輪創(chuàng)新工程中著力打造的標(biāo)志性學(xué)術(shù)成果之一?!叭祟愒鰪?qiáng)”是一個由現(xiàn)代高科技發(fā)展而引發(fā)的重要哲學(xué)問題。在2020年的國家社科基金資助中就有來自上海和湖南的兩個學(xué)術(shù)團(tuán)隊分別獲得了“人類增強(qiáng)”的重大項目立項,這是該問題具有重要哲學(xué)意義的一個證明。上海社會科學(xué)院哲學(xué)所科技倫理與治理研究中心主任、《增強(qiáng)、人類與后人類未來——關(guān)于人類增強(qiáng)的哲學(xué)探索》作者計海慶認(rèn)為,“人類增強(qiáng)”在科技倫理、哲學(xué)本體論、生物學(xué)哲學(xué)和歷史唯物論-技術(shù)哲學(xué)四個方面提出了重要的哲學(xué)問題。在科技倫理中,人類增強(qiáng)提出的問題是:前沿科技的發(fā)展如何挑戰(zhàn)了人類社會的基本價值觀,我們又該如何應(yīng)對;在哲學(xué)本體論中,人類增強(qiáng)提出的問題是:如何認(rèn)識和反思祛魅的自然主義人類觀和人本主義的人類觀之間在觀念上矛盾和沖突,其中關(guān)鍵是如何繼承人本主義的人類中心論;在生物學(xué)哲學(xué)上,人類增強(qiáng)提出的問題是:現(xiàn)代生物科技對人身體的改造、乃至設(shè)計,是否可以具有物種進(jìn)化層面的意義;在歷史唯物論-技術(shù)哲學(xué)上,人類增強(qiáng)提出的問題是:人類增強(qiáng)技術(shù)對人類身體的改變,是否以及將如何影響我們對歷史唯物主義中的生產(chǎn)力、生產(chǎn)關(guān)系等關(guān)鍵概念的重新理解?;卮疬@些問題需要結(jié)合現(xiàn)代的技術(shù)哲學(xué)思想來重新思考人與技術(shù)全新的結(jié)合可能和模式?!爱?dāng)代新興增強(qiáng)技術(shù)前沿的人文主義哲學(xué)研究”課題組認(rèn)為,對人類增強(qiáng)的考察不應(yīng)忽略不同的文化背景對增強(qiáng)界定的差異,因為這在很大程度上決定了醫(yī)療實踐和醫(yī)學(xué)倫理中對身體干預(yù)手段性質(zhì)的不同理解。上海市精神衛(wèi)生研究所辦公室主任則張青認(rèn)為,精神疾病治療研究中腦機(jī)接口技術(shù)的使用,提供了一個醫(yī)學(xué)與技術(shù)面向的窗口。但由于研究的探索性,特別是有創(chuàng)傷性技術(shù)手段,需要對大腦施行侵入性電極植入,由此引發(fā)了廣泛的倫理關(guān)切及哲學(xué)思考。技術(shù)干預(yù)下對患者精神狀態(tài)的影響,除了傳統(tǒng)生命科學(xué)研究的倫理審查,技術(shù)對患者作為人的主體與自主性權(quán)利的僭越是不可忽視的。亟待精神疾病腦機(jī)接口研究倫理共識的達(dá)成,并對如上的問題的解答提供理論的基礎(chǔ)。人類增強(qiáng)技術(shù)的意義在于現(xiàn)代科技正在向人的有限性中注入無限性的力量,這種力量豐富了人存在的可能性的同時,也有一定的不確定性。復(fù)旦大學(xué)哲學(xué)系徐志宏副教授認(rèn)為,這種不確定性值得用科技倫理來仔細(xì)審視。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院閆宏秀教授則提出,在人類增強(qiáng)倫理研究中不能僅僅從批判的視角進(jìn)行單方面的拒絕,也應(yīng)該用建構(gòu)的積極的立場來理解和把握,以免在相關(guān)問題上得出片面的結(jié)論。闡釋人工智能技術(shù)、揭示人工智能的運(yùn)行邏輯至關(guān)重要。上海大學(xué)馬克思主義學(xué)院院長閆坤如教授提出,人工智能技術(shù)的風(fēng)險性、不透明性是人工智能系統(tǒng)的固有屬性,通過立足于內(nèi)在主義與外在主義相結(jié)合的技術(shù)倫理進(jìn)路以及規(guī)范性和描述性相結(jié)合的應(yīng)用倫理進(jìn)路,可以揭示可解釋人工智能的因果相關(guān)關(guān)系,以此來構(gòu)建基于因果相關(guān)性的可解釋人工智能模型,發(fā)展負(fù)責(zé)任的人工智能。精密的算法生成“數(shù)字城市”,也引發(fā)了眾多算法倫理問題。復(fù)旦大學(xué)新聞學(xué)院潘霽教授提出,在人的尺度外,將媒介系統(tǒng)的運(yùn)行引入算法倫理的考量,將為算法倫理問題提供媒介學(xué)的洞見。媒介溝通系統(tǒng)的運(yùn)作,要求“融通共生”作為調(diào)和人與技術(shù)關(guān)系的倫理基礎(chǔ)?!叭谕ü采痹瓌t在個性推薦、資源分配和認(rèn)同建立等算法倫理熱點領(lǐng)域中形成了各種具體化的表達(dá)。情緒識別技術(shù)有其特殊的理論基礎(chǔ)和本質(zhì)特征,它們必然地引發(fā)了相應(yīng)的問題和風(fēng)險。上海社會科學(xué)院哲學(xué)所助理研究員阮凱認(rèn)為,情緒識別技術(shù)是人工智能領(lǐng)域的一項新技術(shù),既能提升人的情緒識別能力,也能增強(qiáng)機(jī)器的智能水平,進(jìn)而可能帶來新的人機(jī)交互革命,需分層次對該技術(shù)的理論基礎(chǔ)與本質(zhì)特點進(jìn)行規(guī)范和治理。第三篇:哲學(xué),這門古老而又深奧的學(xué)問,常常讓我們思考人生的意義、世界的本質(zhì),還有一些看起來很遙遠(yuǎn),但實際上和我們生活息息相關(guān)的問題。比如,現(xiàn)在非常火熱的人工智能,它的道德、倫理和社會影響,就是哲學(xué)探討的一個重要話題。首先,我們來聊聊人工智能的道德問題。道德,簡單來說,就是我們判斷事情好壞、對錯的標(biāo)準(zhǔn)。那么,人工智能有沒有道德呢?這個問題聽起來有點奇怪,因為在我們心里,只有活人才會有道德觀念,機(jī)器怎么會有呢?但實際上,這并不是說人工智能自己會有道德判斷,而是說我們在設(shè)計和使用人工智能的時候,應(yīng)該考慮到道德因素。比如說,現(xiàn)在有一種人工智能叫“推薦算法”,它能在網(wǎng)上給你推薦你喜歡的電影、音樂、新聞。但是,如果這個算法只推薦給你一些能賺更多錢的內(nèi)容,而不考慮這些內(nèi)容是不是對你有好處,那就有點不道德了。這就像是一個只想著賺錢,而不關(guān)心你健康的朋友,總是給你推薦一些垃圾食品。所以,哲學(xué)家們會思考,怎么讓人工智能在做事的時候,也能考慮到道德問題,做到既聰明又善良。接下來,我們再談?wù)剛惱怼惱砗偷赖掠悬c像,但又不太一樣。倫理更多地是關(guān)注社會上的規(guī)矩和習(xí)慣,是我們大家公認(rèn)的行為準(zhǔn)則。那么,人工智能的倫理問題又是什么呢?簡單來說,就是人工智能應(yīng)該怎么和人類相處,才能讓大家都覺得舒服、公平。比如,現(xiàn)在有些工廠用機(jī)器人來代替工人做工,這確實能提高效率,降低成本。但是,如果因為機(jī)器人太能干,導(dǎo)致很多工人失業(yè),那這就涉及到一個倫理問題了。我們是不是應(yīng)該限制一下機(jī)器人的使用,保護(hù)一下工人的工作機(jī)會呢?還有,如果人工智能做出了什么錯誤的決定,比如自動駕駛汽車出了事故,那么責(zé)任應(yīng)該算在誰頭上呢?是汽車制造商,還是軟件開發(fā)者,還是開車的人呢?這些問題,都需要我們從倫理的角度去思考,找到一個大家都能接受的答案。最后,我們來說說人工智能的社會影響。這個范圍可就廣了,因為人工智能現(xiàn)在已經(jīng)滲透到了我們生活的方方面面,從手機(jī)、電腦到工廠、醫(yī)院,幾乎到處都能看到它的身影。所以,它對社會的影響,也是多種多樣的。比如說,人工智能可以提高生產(chǎn)效率,讓我們的生活變得更富裕。但是,它也可能讓一些人失去工作,導(dǎo)致社會不平等加劇。還有,人工智能可以幫助醫(yī)生診斷疾病,提高治療效果。但是,如果我們的醫(yī)療數(shù)據(jù)都被人工智能掌握了,那我們的隱私是不是就得不到保護(hù)了呢?這些問題,都是哲學(xué)家們關(guān)心的社會影響問題。那么,哲學(xué)家們具體是怎么探討這些問題的呢?他們可不是像我們平時聊天那樣,隨便說說自己的想法。他們會用一些很深奧的理論和方法,來仔細(xì)分析人工智能的各個方面。比如說,有一種叫做“倫理學(xué)理論”的東西,它就是專門用來研究倫理問題的。其中有一種理論叫做“功利主義”,它認(rèn)為我們應(yīng)該讓大多數(shù)人獲得最大的幸福。那么,按照這個理論,我們在發(fā)展人工智能的時候,就應(yīng)該盡量讓它給大家?guī)砗锰帲皇莻?。還有一種叫做“德性倫理學(xué)”的理論,它強(qiáng)調(diào)我們應(yīng)該培養(yǎng)一些好的品德,比如誠實、勇敢、善良。那么,按照這個理論,我們在設(shè)計人工智能的時候,就應(yīng)該讓它也具備這些品德,成為一個“好”的人工智能。除了這些理論,哲學(xué)家們還會用一些具體的方法來研究人工智能。比如,他們會做一些思想實驗,想象一些可能發(fā)生的場景,然后思考在這些場景下,人工智能應(yīng)該怎么做才是道德的、倫理的。還有,他們也會關(guān)注一些真實的案例,比如自動駕駛汽車出了事故,然后分析這些案例,看看我們能從中學(xué)到什么教訓(xùn)。說了這么多,你可能會覺得,哲學(xué)探討人工智能的道德、倫理和社會影響,好像都是一些很抽象、很遙遠(yuǎn)的東西。但實際上,這些探討對我們的生活有著非常重要的意義。因為人工智能的發(fā)展速度非???,它對我們的影響也越來越大。如果我們不提前思考這些問題,不制定一些規(guī)則和標(biāo)準(zhǔn)來約束它的發(fā)展,那么很可能有一天,我們會發(fā)現(xiàn)人工智能已經(jīng)超出了我們的控制,帶來了一些我們無法預(yù)料的后果。比如,現(xiàn)在就有一些科學(xué)家和企業(yè)家在呼吁,我們應(yīng)該暫停開發(fā)比人類更聰明的人工智能,因為這樣的人工智能可能會對我們的生存造成威脅。他們擔(dān)心,一旦人工智能變得比我們聰明,它們就可能會按照自己的意愿來行動,而不是服從我們的命令。這樣一來,我們就可能失去對人工智能的控制,甚至可能被它們?nèi)〈?。聽起來是不是有點像科幻電影里的情節(jié)?但實際上,這并不是完全不可能的。因為人工智能的發(fā)展速度非??欤宜鼈兊膶W(xué)習(xí)能力也非常強(qiáng)。所以,我們真的需要認(rèn)真思考一下,怎么讓人工智能的發(fā)展既能夠帶來好處,又不會對我們造成威脅。那么,哲學(xué)在這個過程中能起到什么作用呢?其實,哲學(xué)就像是一盞明燈,能夠照亮我們前進(jìn)的道路。它能夠幫助我們思考一些根本性的問題,比如我們應(yīng)該怎么看待人工智能?我們應(yīng)該怎么和它相處?這些問題可能沒有確定的答案,但是通過哲學(xué)的探討,我們可以更加清楚地認(rèn)識到自己的價值觀和立場,也可以更加理性地看待人工智能的發(fā)展。而且,哲學(xué)的探討還可以為我們提供一些指導(dǎo)性的原則和建議。比如,我們可以根據(jù)倫理學(xué)的理論來制定一些人工智能的道德準(zhǔn)則和行為規(guī)范;我們也可以根據(jù)社會影響的分析來預(yù)測和防范一些可能的風(fēng)險和問題。這樣一來,我們就可以在人工智能的發(fā)展過程中保持一種理性和審慎的態(tài)度,讓它的發(fā)展更加符合人類的利益和愿望。所以你看,哲學(xué)探討人工智能的道德、倫理和社會影響并不是一件無用的事情。相反它對于我們理解、引導(dǎo)和控制人工智能的發(fā)展具有非常重要的意義。在這個充滿變化和挑戰(zhàn)的時代里我們需要哲學(xué)的智慧來為我們指引方向讓我們在享受人工智能帶來的便利的同時也能夠避免它可能帶來的風(fēng)險和危害。正如古希臘哲學(xué)家亞里士多德所說:“智慧不僅僅存在于知識之中,而且還存在于運(yùn)用知識的能力中?!痹诿鎸θ斯ぶ悄苓@一前所未有的挑戰(zhàn)時,我們需要運(yùn)用哲學(xué)的智慧去思考、去判斷、去選擇讓科技的發(fā)展真正造福于人類而不是成為我們的負(fù)擔(dān)。這樣我們才能在享受科技帶來的美好生活的同時也能保持對未來的希望和憧憬。第四篇:人工智能、人類增強(qiáng)等高新技術(shù)的發(fā)展正急速改變著我們的社會;理想的技術(shù)發(fā)展都應(yīng)當(dāng)是有軌道的,這樣的軌道便是哲學(xué)家鋪設(shè)的;面對今天高技術(shù)的快速發(fā)展,哲學(xué)應(yīng)當(dāng)為這些技術(shù)的列車鋪好前行的鐵軌。復(fù)旦大學(xué)楊慶峰教授在一天半的報告期間會議安排了6組報告,共20位報告人進(jìn)行發(fā)言。這些報告大體圍繞兩個方面進(jìn)行:在人類增強(qiáng)與哲學(xué)相關(guān)議題方面,來自復(fù)旦大學(xué)生命醫(yī)學(xué)倫理研究中心的楊慶峰教授在題為《當(dāng)代新興增強(qiáng)技術(shù)及其倫理后果》的報告中簡要回顧了人類增強(qiáng)技術(shù)的發(fā)展,指出2000年以來以NBIC為基本框架的當(dāng)代增強(qiáng)技術(shù)正在隨著以人工智能為核心的智能革命發(fā)生著調(diào)整,以AI為主導(dǎo)的新興增強(qiáng)技術(shù)框架正在形成,并強(qiáng)調(diào)新興增強(qiáng)技術(shù)表現(xiàn)出外在走向內(nèi)在化、從宏觀到微觀化、機(jī)能的異質(zhì)化和精神的數(shù)據(jù)化等四個方面的特征,同時相應(yīng)的倫理后果也從這四個方面展示出來。廣東外語外貿(mào)大學(xué)西方語言文化學(xué)院的程林副教授的報告《人類增強(qiáng)和自我認(rèn)知:西方文化史中的人類增強(qiáng)早期想象與倫理思考》回顧歷史,對西方文化史中的人類增強(qiáng)早期想象進(jìn)行了報告,并通過早期想象內(nèi)容對人的自我認(rèn)知等問題進(jìn)行了分析。華東理工大學(xué)哲學(xué)研究所的陳迎年副教授的報告《天工人其代之:人類增強(qiáng)的界線及其可能》則將目光投向未來,通過檢討“天工人其代之”的歷史來探討人類增強(qiáng)的界限及其可能,指出人類增強(qiáng)的界線只有在“真正的、人本學(xué)的自然界”與“人的激情的本體論本質(zhì)”那種合一中來劃定,才是可能的。針對人類增強(qiáng)中“增強(qiáng)”概念的含混不清與使用混亂的情況,上海社會科學(xué)院哲學(xué)所的計海慶副研究員的報告《“增強(qiáng)vs治療”的揚(yáng)棄——論從醫(yī)學(xué)倫理出發(fā)的人類增強(qiáng)研究》從醫(yī)學(xué)倫理出發(fā),嘗試在與“治療”概念的對勘關(guān)系中把握“增強(qiáng)”概念的實質(zhì),并指出人類增強(qiáng)研究的深入發(fā)展要求對“增強(qiáng)”vs“治療”的兩分法判斷加以揚(yáng)棄。來自南京大學(xué)哲學(xué)系的司徒安(AndreaStrollo)副教授在報告《人類增強(qiáng)與人格同一性》(HumanEnhancementandPersonalIdentity)討論了認(rèn)知的增強(qiáng)將會帶來的身份認(rèn)同難題以及對軀體理論(somatictheory)可能產(chǎn)生的障礙,即人類增強(qiáng)后會面臨“幾個思考者”的難題。西安交通大學(xué)哲學(xué)系的丁曉軍副教授的《道德增強(qiáng)哪家強(qiáng):生物醫(yī)學(xué)、人工智能抑或人類導(dǎo)師?》從實驗哲學(xué)的觀點出發(fā)對三種主要的道德增強(qiáng)途徑進(jìn)行分析,嘗試回答哪些因素會影響人們對道德增強(qiáng)的接受度,以及人們對不同途徑的接受度的具體差異及其產(chǎn)生原因等問題。南京大學(xué)哲學(xué)系博士生趙豆則針對利用生物醫(yī)學(xué)手段達(dá)到道德增強(qiáng)這一途徑進(jìn)行了批判與反思,在報告《道德生物增強(qiáng)真的可能嗎?——基于哲學(xué)視角的審視》中,她指出目前道德生物增強(qiáng)還不是真正意義上的“道德增強(qiáng)”。來自湖南師范大學(xué)哲學(xué)系的王淑慶博士的報告《能動性問題與能動性增強(qiáng)——行動哲學(xué)視角下的腦機(jī)接口技術(shù)》對腦機(jī)接口(BCI)這一具有廣泛應(yīng)用前景的新興技術(shù)的哲學(xué)反思,指出從行動哲學(xué)的角度看,BCI-媒介行為似乎可以作為有意行動,但已有的行動理論特別是行動因果論不能很好地解釋BCI-媒介行為的能動性問題。但是當(dāng)只把BCI看作一種能動性增強(qiáng)技術(shù)的時候,則能夠更好地理解由BCI引發(fā)的倫理和法律問題。在“人工智能哲學(xué)”方面,報告人圍繞人工智能對倫理-社會的影響以及在本體論、認(rèn)識論等問題進(jìn)行了報告與討論。人工智能發(fā)展的倫理是人工智能發(fā)展中面臨的一個重要話題。中國社會科學(xué)院哲學(xué)所段偉文教授做了題為《算法時代的倫理政治審視與思辨性應(yīng)對》的報告,指出在數(shù)據(jù)智能與算法決策被廣泛應(yīng)用的背景下,不論是算法的運(yùn)作條件,還是人類與算法的關(guān)系都關(guān)涉復(fù)雜的倫理政治配置。因此,算法倫理(包括倫理設(shè)計)研究應(yīng)將算法納入社會感知技術(shù)譜系,從而揭示潛藏于算法及其技術(shù)解決主義邏輯背后的倫理政治暗線,并剖析由此帶來的社會感知與行動方式的變化和應(yīng)予扭轉(zhuǎn)的問題。上海交通大學(xué)科技史與科學(xué)文化研究院的閆宏秀教授在報告《數(shù)據(jù)賦能的倫理基質(zhì)》中提出,在數(shù)據(jù)智能化與倫理內(nèi)在化的過程中,對更加有效的倫理方式探尋不僅是對數(shù)據(jù)賦能所引發(fā)的倫理問題反思,更應(yīng)從倫理作為基礎(chǔ)設(shè)施的視角,基于技術(shù)哲學(xué)的調(diào)節(jié)理論,引入倫理與技術(shù)之間雙向反饋機(jī)制,在人與技術(shù)共融的情境中,構(gòu)建數(shù)據(jù)賦能的倫理基質(zhì)。而對于如何進(jìn)行人工智能倫理教育這一問題,浙江大學(xué)馬克思主義學(xué)院的潘恩榮教授在其報告《面向未來工程教育的人工智能倫理譜系》中表明面向未來人工智能時代的工程教育需要建立一種人工智能倫理譜系,以此闡明人工智能倫理與工程倫理、傳統(tǒng)倫理之間的聯(lián)系和區(qū)別,從而為開展人工智能倫理教育提供支持。關(guān)于人工智能及其相關(guān)技術(shù)的發(fā)展所帶來的社會問題同樣也受到了報告人的關(guān)注。來自香港城市大學(xué)公共政策系的鄧文韜研究員,他的報告“AI記憶問題和HKSAR中的遺忘權(quán)”(TheproblemsofAImemoryandtherighttobeforgotteninHKSAR)分析并指出被遺忘權(quán)在概念和倫理上所存在的困難。南京大學(xué)哲學(xué)系博士生趙培做了題為《數(shù)字記憶的困境——基于斯蒂格勒技術(shù)觀對數(shù)字記憶的反思》的報告。報告從斯蒂格勒的思想出發(fā),指出基于數(shù)字化第三持留的記憶的工業(yè)化,不僅導(dǎo)致了知識的喪失,還造成了欲望與個性化的毀滅,從而引發(fā)時代的精神性危機(jī)。為了抵抗數(shù)字記憶的威脅,當(dāng)代需要發(fā)展數(shù)字遺忘來維護(hù)人的尊嚴(yán)。中國社會科學(xué)院大學(xué)的博士生黎春嫻的報告《生物識別技術(shù)在智能社會應(yīng)該發(fā)展嗎?——以人臉識別技術(shù)為例》則以人臉識別技術(shù)為例,對生物識別技術(shù)進(jìn)行了反思,分析了中西方對于生物識別技術(shù)的不同態(tài)度,并建議從一個更為平衡的方向去有節(jié)制地發(fā)展生物識別技術(shù)的相關(guān)應(yīng)用。多位報告人從傳統(tǒng)哲學(xué)資源中尋求對人工智能的理解。南京信息工程大學(xué)當(dāng)代中國馬克思主義研究院的崔中良副教授的報告《人工智能研究中人機(jī)交互實現(xiàn)的感知基礎(chǔ)》在身體現(xiàn)象學(xué)視域下,結(jié)合哲學(xué)、認(rèn)知科學(xué)和神經(jīng)科學(xué)的研究,探討了以通感作為機(jī)器與人類交互的基本感知模式。廣東外語外貿(mào)大學(xué)外國文學(xué)文化研究中心李日容副教授以《從海德格爾的時間性此在看人工智能發(fā)展的限度——兼論德雷福斯AI批判的局限性》為題報告了從海德格爾的時間性此在對人工智能發(fā)展限度的思考,指出德雷福斯對符號主義AI的形式化本質(zhì)的批判以及對于海德格爾式AI的非形式化路徑的肯定都有失偏頗,由時間性此在所揭示出來的AI的發(fā)展方向應(yīng)該致力于此在形式與非形式化生存的內(nèi)在融合與統(tǒng)一。大連理工大學(xué)人文與社會科學(xué)學(xué)部的索引博士的報告《論虛擬現(xiàn)實體驗對人主體性建構(gòu)的影響》討論了虛擬現(xiàn)實技術(shù)發(fā)展帶來的一些問題,指出虛擬現(xiàn)實技術(shù)已經(jīng)超出其作為客觀技術(shù)工具的功能性范疇,而對人的主體性建構(gòu)產(chǎn)生了虛擬化、可塑化、信息化和交互主體化等影響。在此背景下,一種非本質(zhì)的、去中心化的主體生成觀或許更加適用于思考人在今天這個全面技術(shù)化時代的生存境況。南京大學(xué)哲學(xué)系的潘天群教授及其博士生鄭炳楠、浦江淮的報告則圍繞智能概念及奇點(智能爆炸點)及人工智能在科學(xué)發(fā)現(xiàn)中的作用展開分析。潘天群教授的報告《智能系統(tǒng)的增殖與進(jìn)步》從邏輯分析的視角對智能概念展開精確分析,認(rèn)為智能可理解成系統(tǒng)面對環(huán)境而提出的問題或者挑戰(zhàn)而提出方案的能力,這樣的能力可以被比較但難以被精確度量。人類一方面通過生物本能實現(xiàn)基因增殖從而實現(xiàn)智能增殖,同時通過知識的增加人類的智能呈現(xiàn)出智能進(jìn)步。超級智能機(jī)器被設(shè)想為人所制造且能夠代替人類制造機(jī)器的機(jī)器,而這樣超級智機(jī)器被制造出來,機(jī)器智能大量增殖的奇點便會到來。鄭炳楠的報告題目是《查爾莫斯對奇點論證的重塑及其問題》。報告重新審視了查爾莫斯對于奇點問題的論證和思考。浦江淮的報告關(guān)注人工智能技術(shù)在科學(xué)發(fā)現(xiàn)中的作用,其報告題目為《機(jī)器可以進(jìn)行科學(xué)發(fā)現(xiàn)嗎?——從BACON到AlphaFold2》。人工智能專家一直在探索如何用機(jī)器幫助科學(xué)家進(jìn)行科學(xué)發(fā)現(xiàn),而AlphaFold2對蛋白質(zhì)結(jié)構(gòu)的揭示則是近期科學(xué)界的重大事件。浦江淮通過分析人工智能程序BACON和AlphaFold2,認(rèn)為機(jī)器具備進(jìn)行科學(xué)發(fā)現(xiàn)的可能性。第五篇:10月21日,“人類增強(qiáng)與人本主義的未來”學(xué)術(shù)研討會暨新書發(fā)布會在上海社會科學(xué)院召開。“人類增強(qiáng)”是由一個現(xiàn)代科技改造人類自身而引發(fā)的科技倫理和科技哲學(xué)問題,它涉及人工智能、腦機(jī)接口、神經(jīng)調(diào)控、基因編輯、合成生物等尖端科技對人性基礎(chǔ)的挑戰(zhàn),是近年來學(xué)術(shù)關(guān)切的熱點。為了厘清科技發(fā)展與科技倫理、人性哲學(xué)的基本理論問題,上海社會科學(xué)院科技哲學(xué)創(chuàng)新團(tuán)隊出版了《增強(qiáng)、人類與后人類未來——關(guān)于人類增強(qiáng)的哲學(xué)探索》一書,將最新的研究成果凝聚其中,以期對人類文明發(fā)展的“未來之問”提供思考的線索和哲學(xué)的回答。技術(shù)不能回避的人文之問在新書發(fā)布環(huán)節(jié)中,《增強(qiáng)、人類與后人類未來——關(guān)于人類增強(qiáng)的哲學(xué)探索》一書的作者計海慶研究員作了題為“人類增強(qiáng)與哲學(xué)問題”的主題發(fā)言,他指出,“人類增強(qiáng)”現(xiàn)象正受到越來越多的哲學(xué)關(guān)注。在2020年國家社科基金資助中,就有來自上海和湖南的兩個學(xué)術(shù)團(tuán)隊分別獲得了“人類增強(qiáng)”哲學(xué)的重大項目立項,這是該問題具有重要哲學(xué)意義的一個證明。他認(rèn)為,人類增強(qiáng)的哲學(xué)意義集中體現(xiàn)在科技發(fā)展與人本主義之間的關(guān)系上,并且在科技倫理、哲學(xué)本體論、生物學(xué)哲學(xué)和歷史唯物論四個方面提出了重要的哲學(xué)問題。在科技倫理中,人類增強(qiáng)提出的問題是:前沿科技的發(fā)展如何挑戰(zhàn)了人本主義的基本價值觀,例如腦機(jī)接口技術(shù)是否侵害了個人自主,基因編輯是否破壞了人與人與生俱來的平等地位等棘手的應(yīng)用倫理問題。在哲學(xué)本體論中,人類增強(qiáng)提出的問題是:如何認(rèn)識自然主義的和人本主義的人類觀之間的矛盾和沖突,其中關(guān)鍵是如何繼承人本主義中的人類中心論遺產(chǎn)。在生物學(xué)哲學(xué)上,人類增強(qiáng)提出的問題是:現(xiàn)代生物科技對人身體的改造乃至設(shè)計和重塑,是否可以具有物種進(jìn)化層面的意義,技術(shù)的力量是否足以作為獲得性遺傳的影響因子而被承認(rèn)。在歷史唯物論上,人類增強(qiáng)提出的問題是:人類增強(qiáng)對人類身體的改變,是否會影響我們重新理解歷史唯物論中的生產(chǎn)力、生產(chǎn)關(guān)系等關(guān)鍵概念,對此的回答應(yīng)結(jié)合現(xiàn)代技術(shù)哲學(xué)思想來重新思考人與技術(shù)全新的結(jié)合可能和模式。在與談環(huán)節(jié)中,復(fù)旦大學(xué)生命醫(yī)學(xué)倫理中心教授、國家社科基金重大項目“當(dāng)代新興增強(qiáng)技術(shù)前沿的人文主義哲學(xué)研究”課題組首席專家楊慶峰認(rèn)為,從馬克思主義歷史唯物論對人類增強(qiáng)進(jìn)行解讀,是一個值得深入探討的理論新視角;此外,對人類增強(qiáng)的考察也不應(yīng)忽略不同的文化背景對增強(qiáng)概念的界定是有差異的,這在很大程度上決定了醫(yī)療實踐和醫(yī)學(xué)倫理中對身體干預(yù)手段性質(zhì)的不同理解。湖南師范大學(xué)馬克思主義學(xué)院教授、國家社科基金重大項目“當(dāng)代新興增強(qiáng)技術(shù)前沿的人文主義哲學(xué)研究”課題組首席專家易顯飛提出,探討人類增強(qiáng)應(yīng)區(qū)分傳統(tǒng)的增強(qiáng)和基于現(xiàn)代科技的增強(qiáng),前者是間接的、漸進(jìn)的,并大多是精神性的方式,而后者則是直接的、速成的和改造人類身體的。通過對比這些干預(yù)手段在性質(zhì)和程度上的差別,將引出許多值得探討的理論問題。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院的閆宏秀教授提出,在人類增強(qiáng)倫理研究中,傳統(tǒng)的人本主義立場往往從批判的視角進(jìn)行單方面的駁斥和否定,但越來越多的人類史研究成果顯示,人類一直以來的生存都是和各種技術(shù)共同“進(jìn)化”的,這一點對合理評估人類增強(qiáng)技術(shù)將是一個重要的啟示。復(fù)旦大學(xué)哲學(xué)學(xué)院徐志宏副教授提出,人本主義思想對人的存在有一個基本假設(shè),即人是有限性的存在,但某些激進(jìn)的人類增強(qiáng)技術(shù)卻希望改變這一點,例如心靈上傳的方案,這其中就有了理論上的錯位和逆反。如果人的年齡對人的存在并不構(gòu)成實質(zhì)上的約束,那么未來的人本主義將把自己轉(zhuǎn)變?yōu)楹笕祟愔髁x嗎?這其中會有極大的觀念轉(zhuǎn)型。人類增強(qiáng):智慧與人性的位置人類增強(qiáng)問題的哲學(xué)意義,也在各類前沿技術(shù)應(yīng)用的哲學(xué)反思中顯露端倪。上海大學(xué)馬克思主義學(xué)院院長閆坤如教授做了題為“可解釋人工智能的哲學(xué)反思”的報告。她提出:闡釋人工智能技術(shù)、揭示人工智能的運(yùn)行邏輯至關(guān)重要。人工智能技術(shù)的風(fēng)險性、不透明性是人工智能系統(tǒng)的內(nèi)在屬性。但是通過立足于內(nèi)在主義與外在主義相結(jié)合的技術(shù)倫理方法,以及規(guī)范性和描述性相結(jié)合的應(yīng)用倫理學(xué)手段,可以塑造出人工智能的因果關(guān)系,以此來構(gòu)建可解釋的人工智能模型。這是發(fā)展負(fù)責(zé)任的人工智能的有益路徑,也是避免由于人工智能誤用而導(dǎo)致人類增強(qiáng)技術(shù)偏離人本主義的有效保障。復(fù)旦大學(xué)新聞學(xué)院潘霽教授做了題為“融通共生:從媒介運(yùn)作出發(fā)反思算法倫理”的報告。他提出,人工智能算法的設(shè)計需要超越傳統(tǒng)人本主義的理論框架。在人的尺度外,將媒介系統(tǒng)的運(yùn)行引入算法倫理的考量。這將為算法倫理問題提供媒介學(xué)的洞見?!叭谕ü采痹瓌t的提出,充分考慮了作為人類溝通系統(tǒng)而存在的媒介,并以調(diào)和人與技術(shù)關(guān)系作為倫理秩序的基礎(chǔ)?!叭谕ü采痹瓌t要求超越人本主義的迷思,在智能算力資源的分配中,在虛擬身份的互構(gòu)中,在元宇宙空間的多層次規(guī)劃中,將人與媒介的融通發(fā)展作為價值目標(biāo)來實現(xiàn)。上海社會科學(xué)院哲學(xué)所助理研究員阮凱做了題為“情緒識別技術(shù)的問題、風(fēng)險和規(guī)治”的報告。他認(rèn)為,情緒識別技術(shù)是人工智能領(lǐng)域的一項新技術(shù),通過提升機(jī)器對人類情緒識別能力來增強(qiáng)機(jī)器的智能水平,進(jìn)而可能帶來人機(jī)交互關(guān)系的革命。但是,ai情緒識別技術(shù)也存在倫理風(fēng)險。低效易錯的情緒識別將給人帶來心理上的傷害,惡化人機(jī)關(guān)系;高效準(zhǔn)確的情緒識別,則可能會侵犯個人隱私;而不加約束的越界使用情緒識別,更會導(dǎo)致行為操縱等不可控風(fēng)險。因此需要在合理規(guī)劃技術(shù)適用范圍的前提下,審慎發(fā)展ai情緒識別。增強(qiáng)與服務(wù):感知的拓寬與認(rèn)知的完善除了人工智能技術(shù)外,人類增強(qiáng)的實現(xiàn)也依賴其他前沿技術(shù)的應(yīng)用,相應(yīng)的哲學(xué)考察也不可或缺。上海交通大學(xué)哲學(xué)系助理教授賴長生做了題為“認(rèn)知延展技術(shù)的三重困境”的報告。他首先提出了一個問題,人類的記憶真的可以通過認(rèn)知延展技術(shù)得到增強(qiáng)嗎?我們使用搜索引擎、學(xué)習(xí)軟件、感知相機(jī)等外部技術(shù)手段達(dá)成的記憶,究竟是在回憶往事,還是在重新學(xué)習(xí)往事?他認(rèn)為,記憶本身并不像傳統(tǒng)人本主義認(rèn)為的那樣是一個純粹的心理活動,而更是一個通過技術(shù)實踐不斷重新學(xué)習(xí)的過程。上海交通大學(xué)科學(xué)史與科學(xué)文化研究院博士后索引的報告題目是“身體現(xiàn)象學(xué)視域下虛擬現(xiàn)實體驗的生成及增強(qiáng)效應(yīng)”。他認(rèn)為,虛擬現(xiàn)實體驗不僅能在行為層面增強(qiáng)人的認(rèn)知能力、交互能力,以及構(gòu)建生活世界的實踐能力,還能在知覺層面擴(kuò)展人對自身存在的知覺維度,加強(qiáng)人與他人的共情連接,豐富對象世界的呈現(xiàn)方式。這些身體體驗的增強(qiáng),使人的存在方式發(fā)生了信息化的轉(zhuǎn)變,象征了技術(shù)塑造下人類生存方式的未來轉(zhuǎn)型。上海精神衛(wèi)生中心張青老師的報告題目是“基于腦機(jī)接口的精神疾病干預(yù)治療及倫理共識”。他認(rèn)為,作為增強(qiáng)人類認(rèn)知的腦機(jī)接口技術(shù),在精神疾病治療方面也具有廣闊的應(yīng)用前景。其作用方式是通過對大腦實施無創(chuàng)的磁刺激、光刺激或是有創(chuàng)的電極植入,來抑制和消除精神疾病的病灶。雖然在可行性上已有了初步的證明,但是相應(yīng)的技術(shù)進(jìn)步還需要輔之以倫理方面的共識。一方面,倫理共識可以提升公眾對這一療法的認(rèn)同程度,另一方面,它也會切實保護(hù)患者的基本權(quán)利,更重要的是倫理共識也將為科技進(jìn)步提供人本主義的理論框架,讓科技更好服務(wù)人類。上海社會科學(xué)院哲學(xué)所成素梅副所長為本次新書發(fā)布會做了總結(jié)。她指出,當(dāng)哲學(xué)研究涉及現(xiàn)代科技時,應(yīng)避免缺少客觀依據(jù)的臆測,人文學(xué)者要對科技前沿做準(zhǔn)確和細(xì)致的把握,這樣才能客觀地評價科技發(fā)展及其意義。人類增強(qiáng)技術(shù)提出的是人的精神是否可以被技術(shù)化的問題,這其中蘊(yùn)含了許多悖論,因為人類增強(qiáng)技術(shù)的根本特征就是自反性,即指向人類自身。智能文明時代是科技高度發(fā)達(dá)的時代,更是一個需要反思人性的時代。怎么理解人性,怎么理解人本身,這是從人類增強(qiáng)這個話題引出的重要哲學(xué)問題,是一個技術(shù)時代必須回答的大問題和難問題,值得進(jìn)一步探索。本次會議也是上海社會科學(xué)院迎接黨的二十大召開、宣傳貫徹黨的二十大精神重大科研成果系列發(fā)布活動之一。第六篇:人類增強(qiáng)技術(shù)作為一種運(yùn)用會聚技術(shù)提高人類生理與心理能力的技術(shù)手段,其對于人體的嵌入式的干預(yù)打破了傳統(tǒng)技術(shù)觀下人物二分的本體論模型,但從增強(qiáng)人類能力的目的與追求完美化的理想來看,人類增強(qiáng)技術(shù)又被視為一種人類中心主義式的技術(shù)形態(tài)與人文傳統(tǒng)的延續(xù)。斷裂與連續(xù)的觀點之區(qū)分構(gòu)成了生物保守主義與超人類主義的分界點,兩大陣營圍繞人類增強(qiáng)技術(shù)所帶來的“增強(qiáng)”與“治療”的概念界定、自主性與社會公正問題展開了激烈討論,雙方各自在自然人性論與進(jìn)化論的理論基點與理論框架下的倫理論證都具有一定的合理性與局限性。這些理論探索對于揭示和理解人類增強(qiáng)技術(shù)所帶來的倫理問題提供了思路,而合理而有限監(jiān)管的中間道路、增強(qiáng)技術(shù)實踐應(yīng)用的倫理原則以及有效的法律法規(guī)體系與倫理審查制度可以構(gòu)成當(dāng)下應(yīng)對人類增強(qiáng)技術(shù)倫理問題的策略框架。引言21世紀(jì)以來,隨著新興科技的發(fā)展,特別是在納米、生物、信息與認(rèn)知這四大前沿科技領(lǐng)域,彼此交叉融合所形成的“會聚技術(shù)”取得了一系列新成果,并在世界范圍內(nèi)引起了廣泛討論與極大關(guān)注?!稌奂夹g(shù),增強(qiáng)人類能力》的報告指出:在對倫理事務(wù)與社會需要的合理關(guān)切下,本世紀(jì)初會聚技術(shù)將大幅增強(qiáng)人類能力、社會效益與生活質(zhì)量。然而,我們應(yīng)該不假思索地直接接受增強(qiáng)技術(shù)所許諾的“讓人類更好”的愿景嗎?或許不能,那么,我們應(yīng)該如何理性地看待人類增強(qiáng)技術(shù)與傳統(tǒng)技術(shù)的聯(lián)系與區(qū)分?人類的自身定位是否會因“增強(qiáng)”而發(fā)生改變?增強(qiáng)所帶來的新的社會倫理問題以及針對這些倫理問題哲學(xué)反思又該有怎樣的實踐指導(dǎo)效力?一、人類增強(qiáng)技術(shù)——連續(xù)還是斷裂?伴隨著會聚技術(shù)的出現(xiàn)與發(fā)展,人類增強(qiáng)技術(shù)相較于傳統(tǒng)技術(shù)具備了一些新特點。傳統(tǒng)增強(qiáng)技術(shù)實質(zhì)上是人類有機(jī)生命體的外部延伸器官及其機(jī)能。當(dāng)代會聚技術(shù)的一大突破方向就在于通過人與機(jī)器、技術(shù)的內(nèi)在整合來改造和增強(qiáng)人的身體與機(jī)能,然而,這種直接作用于人體自身的“內(nèi)部增強(qiáng)”不同于傳統(tǒng)的、借助外部人工物中介作用的“外部增強(qiáng)”。進(jìn)一步來說,這種新興的人類增強(qiáng)技術(shù)也將意味著建立在傳統(tǒng)二元主義本體論預(yù)設(shè)上的人與非人、生命與非生命、人工物與自然物的邊界被模糊化。此外,傳統(tǒng)技術(shù)的增強(qiáng)作用并不會涉及或干預(yù)人類心靈、情感、道德等,而隨著近年來“腦機(jī)接口技術(shù)”的發(fā)展,人類增強(qiáng)技術(shù)進(jìn)一步觸及到了過去所認(rèn)為的不可侵入的心智領(lǐng)域。然而,也存在著一種聲音認(rèn)為人類增強(qiáng)技術(shù)的出現(xiàn)并非一種斷裂。超人類主義者將人類增強(qiáng)技術(shù)看作自啟蒙運(yùn)動以來人類不斷追求可完美化(perfectibility)理想的延續(xù),只是這種理想的實現(xiàn)方式在目前會聚技術(shù)迅猛發(fā)展的時代背景下,從聚焦“工具性技術(shù)”轉(zhuǎn)向了改造作為“目的性存在”的人本身。如此一來,人類增強(qiáng)技術(shù)似乎可以更為寬泛地被理解為不斷突破自然賦予人類自身的局限性以及不斷追求完美性的一系列發(fā)明與創(chuàng)設(shè)。大抵來說,對于人類增強(qiáng)技術(shù)與傳統(tǒng)技術(shù)形態(tài)之間關(guān)系的不同理解可以作為超人類主義者與生物保守主義的一個劃界標(biāo)準(zhǔn)。二、人類增強(qiáng)技術(shù)的主要倫理問題論爭人類增強(qiáng)技術(shù)在醫(yī)學(xué)上的運(yùn)用引發(fā)了治療與增強(qiáng)的同異之爭,而直接干預(yù)人體甚至心智、情感則引發(fā)了自主性與自由意志的辯論,另外,增強(qiáng)技術(shù)作為一種稀缺性技術(shù)如何進(jìn)行資源分配則引發(fā)了社會公平正義的討論。(一)生命醫(yī)學(xué)范式:治療與增強(qiáng)的區(qū)分治療與增強(qiáng)是否應(yīng)該區(qū)分以及該如何進(jìn)行區(qū)分,圍繞這一問題存在著兩種立場與解釋進(jìn)路。一種看法認(rèn)為“人類增強(qiáng)”顯然不同于“治療”,人類增強(qiáng)是在沒有疾病的情況下提供干預(yù)以改善、超越正常健康狀態(tài)的過程,而治療則針對的是在病理學(xué)上危害身體健康或者身體機(jī)能水平低于此物種平均水平的狀況,使患有某種疾病的身體或具有缺陷的機(jī)能恢復(fù)到健康水平。同時也存在著另一種相反的觀點——人類增強(qiáng)與治療之間實際上難以劃出一道清晰的界線,增強(qiáng)可以包括任何改善我們身體、能力以提高生命福祉的活動。大體上來說,生物保守主義者支持前者的立場,而作為人類增強(qiáng)技術(shù)倡導(dǎo)者的超人類主義則支持后一種看法。生物保守主義認(rèn)為,對于治療的態(tài)度在倫理上是可以被接受的,即治療是一種善的醫(yī)學(xué)行為活動,而增強(qiáng)作為一種非必要的惡的人為干預(yù)則是不被允許的,或者至少在道德上是值得懷疑的。相反,超人類主義者認(rèn)為人類增強(qiáng)技術(shù)提高身體性能或者精神表現(xiàn)以追求更好的生命狀態(tài)應(yīng)該是一種道德上的善而被允許與接收,并且隨著會聚技術(shù)的進(jìn)步,更多人類增強(qiáng)技術(shù)將走向大眾,服務(wù)人們的健康需求乃至更廣闊的生活需求。此外,關(guān)于治療與增強(qiáng)的討論中也存在另一種聲音,他們呼吁來一次范式轉(zhuǎn)換以擺脫這場爭論。如今關(guān)于人類增強(qiáng)技術(shù)的討論,無論是超人類主義者以“人的能力的增強(qiáng)”的進(jìn)化論立場,還是保守主義者們以“自然人狀態(tài)”作為規(guī)范性概念,他們的論證都無法建立在中立的基礎(chǔ)上,為打破健康與疾病、人工與自然的本質(zhì)主義二元對立并推進(jìn)圍繞人類增強(qiáng)技術(shù)的辯論,倫博爾德呼吁以不暗示規(guī)范性判斷的“身體修飾”(bodymodification)來代替“人類增強(qiáng)”概念。簡而言之,在人類增強(qiáng)技術(shù)的生命醫(yī)學(xué)范式討論中,核心的問題在于治療與增強(qiáng)是否存在確定的邊界,對于這一問題的回答存在三種觀點:生物保守主義者出于反對人類增強(qiáng)的立場而承認(rèn)這一邊界;超人類主義者則出于為人類增強(qiáng)進(jìn)行辯護(hù)的立場而否認(rèn)這一邊界;最后一種觀點秉持中立的立場,并試圖通過引入新術(shù)語“身體修飾”來消解該爭論。(二)人格同一性與自由意志人類增強(qiáng)技術(shù)同時具備了對人體器官與意識活動進(jìn)行干預(yù)的可能手段。在技術(shù)所造就的離身體驗、輔助判斷等情境下,人格的同一性是否還能夠保持?人類的自由意志在增強(qiáng)技術(shù)的時代是否受到了威脅與挑戰(zhàn)?在生物保守主義者看來,應(yīng)用增強(qiáng)技術(shù)將會對受試者自我同一性的建立以及人類的自由意志產(chǎn)生消極影響,主體的自我真實性與敘事統(tǒng)一性將面臨扭曲的危險,他們斷定依靠增強(qiáng)技術(shù)獲得的情感不是真情感,經(jīng)過增強(qiáng)技術(shù)輔助所做出的判斷并非自主決斷,道德增強(qiáng)的效果也并不能說明被增強(qiáng)者道德自覺的提升與道德水平的提高。然而,超人類主義者認(rèn)為人格同一性并不會因為增強(qiáng)技術(shù)的介入而消解,在生理連續(xù)性層面,以器官移植為例,被移植者接受器官移植手術(shù)后的人格同一性通常并不會受到懷疑。同樣在心理連續(xù)性層面,個體的人生敘事總是受到一些生活事件的干擾,認(rèn)知或情感類的增強(qiáng)技術(shù)帶來的改變僅僅只是精神狀態(tài)而并非自我感知與自我擁有感,自我的真實性、完整性也不會消解。即便個體的偏好受到外在環(huán)境的塑造與影響,只要這一偏好是個人經(jīng)過理性考慮而認(rèn)同的,那么這一行為并不會有悖于個人的自由。(三)人類增強(qiáng)技術(shù)的分配正義問題人類增強(qiáng)技術(shù)的應(yīng)用也同器官移植一樣引發(fā)了社會公平與正義問題的討論。由于人類增強(qiáng)技術(shù)成本高昂,最初獲得這種技術(shù)的機(jī)會將受到諸多限制,那些能夠負(fù)擔(dān)起運(yùn)用這項技術(shù)的人在獲得增強(qiáng)所帶來的益處后將進(jìn)一步有利于其追求與生活質(zhì)量相關(guān)的競爭性產(chǎn)品,而那些在經(jīng)濟(jì)社會中處于弱勢地位的人相較之下更無力獲取這類稀缺性資源,進(jìn)而在社會競爭中落于更加不利的位置。生物保守主義者擔(dān)憂人類增強(qiáng)技術(shù)的出現(xiàn)將加劇貧富差距,擴(kuò)大原有的社會不平等狀況,并且創(chuàng)造出一種新的社會分裂,即“增強(qiáng)鴻溝”——增強(qiáng)者與未增強(qiáng)者間的上下對立關(guān)系。超人類主義者或許不會否認(rèn)當(dāng)今社會就已經(jīng)存在的社會和經(jīng)濟(jì)上的不平等,以及這種不平等所帶來的在獲取人類增強(qiáng)技術(shù)的機(jī)會上的差異,但他們并不認(rèn)同生物保守主義提出的“增強(qiáng)鴻溝”。他們通過加速回報定律(thelawofacceleratingreturns)以及邊際溢出效應(yīng)對其觀點進(jìn)行了辯護(hù),普通消費(fèi)者也能從人類增強(qiáng)技術(shù)的普及化發(fā)展中受益。因此,“增強(qiáng)鴻溝”在超人類主義者看來只是杞人憂天而根本無法阻止增強(qiáng)技術(shù)為社會所接納的現(xiàn)實趨勢。三、人類增強(qiáng)技術(shù)倫理爭論的論證進(jìn)路及其限度生物保守主義者與超人類主義者之間的“人類增強(qiáng)技術(shù)倫理之爭”很大程度上關(guān)涉到人性論與技術(shù)觀。從兩種不同的看待人性與技術(shù)的立場觀點可以看出,超人類主義與生物保守主義雙方的論證核心或者說進(jìn)路分別是進(jìn)化論與自然人性論。(一)人性論論證及其限度生物保守主義者支持一種天賦的自然人性觀。保守主義的自然人性論試圖去捍衛(wèi)一種人文主義傳統(tǒng),這種傳統(tǒng)強(qiáng)調(diào),考慮到人類基因的獨(dú)特性,自然人作為一個物種與與其他物種之間應(yīng)該存在一個區(qū)分,并且即便考慮到關(guān)于人性的理解具有歷史性,人性也總歸存在一個不可逾越的底線,人的自然權(quán)利與人性尊嚴(yán)也來源于此,人與技術(shù)的關(guān)系應(yīng)該是主人與奴仆的關(guān)系而非反之,人類增強(qiáng)技術(shù)以進(jìn)化的名義將人作為可操作的器具對待實際上是“去人性化”的,非正義的,同時也暗含著替代造物主的人類中心主義式的狂妄與傲慢。因此,要想保持人類的生存與人類社會的存續(xù)就必然保持人的自然本性不被人工技術(shù)所干預(yù)。然而,保守主義對于人性的自然規(guī)定訴諸于形而上學(xué)式的直覺,而非像超人類主義那樣從經(jīng)驗事實判斷出發(fā),這就使得保守主義的論證與辯護(hù)顯得和時代、技術(shù)的發(fā)展現(xiàn)實相脫節(jié)。不過更為根本的是,自然人性論論證所依托的形而上學(xué)直覺實際上來自于歐洲文藝復(fù)興以來的現(xiàn)代性價值,而受到現(xiàn)代性批判思潮的沖擊。(二)進(jìn)化倫理學(xué)論證及其限度哲學(xué)人類學(xué)家蓋倫(ArnoldGehlen)的“生物本能缺乏論”認(rèn)為,人是一種在生物本能上不完美、不充分的存在,無法像動物一樣天生地依靠專門化的器官與本能適應(yīng)外部環(huán)境,不得不使用技術(shù)與工具來增強(qiáng)自身能力以便適應(yīng)環(huán)境。這也就意味著,缺乏本能的人類是技術(shù)性生成的存在,人性沒有一個初始性的自然本原,人類的歷史是不斷發(fā)明、創(chuàng)造和增強(qiáng)自身性能的進(jìn)化過程。超人類主義的“增強(qiáng)進(jìn)化論”延續(xù)了這種理念,“利用技術(shù)提高身體素質(zhì)和能力是物種生存和適應(yīng)能力增強(qiáng)的表現(xiàn)”,同樣,人類增強(qiáng)技術(shù)的影響并不是像某些保守主義者所批評的那樣導(dǎo)致社會貧富差距加深以及自主性的散失,從人類演化史和技術(shù)史的角度來看,那些最初昂貴的、罕見的和有風(fēng)險的技術(shù)也往往會在工業(yè)化生產(chǎn)下變得便宜、易得、普遍和相對安全。在哈里斯等超人類主義者看來,人類增強(qiáng)技術(shù)給人們帶來影響將不會是對自由意志的壓制與社會不公平,而會是更加公正平等、健康、自由和積極的生活以及更高層次的人類進(jìn)化階段。然而,如果從元倫理學(xué)層面來看,超人類主義者的進(jìn)化論論證實際上犯了摩爾(GeorgeEdwardMoore)所說的“自然主義謬誤”,即建立在經(jīng)驗與可實證基礎(chǔ)上的事實陳述無法直接推導(dǎo)出規(guī)范性的價值陳述。依據(jù)弗蘭克那(WilliamFrankena)的闡述,我們可以從兩方面呈現(xiàn)出超人類主義者的論證錯誤:從邏輯層面而言,增強(qiáng)技術(shù)給生理與心理帶來的“更高、更強(qiáng)、更進(jìn)化”并不能直接推導(dǎo)出道德層面的善,因為從非道德前提無法推出道德結(jié)論;而就定義層面而言,超人類主義的論證實際上是將某一種或某一類自然屬性等同于善。進(jìn)化論最多可以幫助我們理解某些道德規(guī)范形成所必要的經(jīng)驗性前提,卻不能夠作為論證某種價值規(guī)范的原則或是綱領(lǐng),如
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年個人藝術(shù)發(fā)展咨詢合同
- 概念驗證中心建設(shè)協(xié)議
- 2025年人臉識別技術(shù)在安防領(lǐng)域的可行性研究報告
- 2025年高校創(chuàng)新創(chuàng)業(yè)孵化平臺項目可行性研究報告
- 2025年權(quán)益保護(hù)法律服務(wù)體系建設(shè)可行性研究報告
- 2025年市民文化活動中心建設(shè)項目可行性研究報告
- 臨聘員工協(xié)議書
- 交接物品協(xié)議書
- 物業(yè)與綠化協(xié)議書
- 保留追責(zé)協(xié)議書
- 中國淋巴瘤治療指南(2025年版)
- 2025年云南省人民檢察院聘用制書記員招聘(22人)考試筆試模擬試題及答案解析
- 2026年空氣污染監(jiān)測方法培訓(xùn)課件
- 實習(xí)2025年實習(xí)實習(xí)期轉(zhuǎn)正協(xié)議合同
- 療傷旅館商業(yè)計劃書
- 購買電影票合同范本
- 2025西部機(jī)場集團(tuán)航空物流有限公司招聘考試筆試備考題庫及答案解析
- 2025年廣西公需科目答案6卷
- 2025年鮑魚養(yǎng)殖合作協(xié)議合同協(xié)議
- 2025智慧消防行業(yè)市場深度調(diào)研及發(fā)展趨勢與投資前景預(yù)測研究報告
- 急性呼吸窘迫綜合征
評論
0/150
提交評論