版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
林子雨人工智能通識教程廈門大學(xué)人工智能倫理第9章01
人工智能倫理概念人工智能的倫理問題02030405人工智能倫理典型案例人工智能倫理的基本原則解決人工智能倫理問題的策略目錄01Par
t
one人
工
智
能
倫
理
概
念9.1
人工智能倫理概念?
人工智能倫理是指在研究、開發(fā)和應(yīng)用人工智能技術(shù)時(shí),需要遵循的道德準(zhǔn)則和社會(huì)價(jià)值觀,以確保人工智能的發(fā)展和應(yīng)用不會(huì)對人類和社會(huì)造成負(fù)面影響。這涉及到問題,如數(shù)據(jù)隱私、透明度和責(zé)任、權(quán)利和公平性、智能歧視和偏見等。人工智能倫理也涉及到對機(jī)器智能的規(guī)范和監(jiān)管,以確保其符合人類的價(jià)值觀和社會(huì)利益?
在人工智能的發(fā)展中,倫理問題越來越引起人們的關(guān)注,因?yàn)槿斯ぶ悄艿膹V泛應(yīng)用和強(qiáng)大能力對人類社會(huì)帶來了深遠(yuǎn)的影響。人工智能倫理是一個(gè)多學(xué)科的研究領(lǐng)域,涉及到哲學(xué)、計(jì)算機(jī)科學(xué)、法律、經(jīng)濟(jì)等多個(gè)學(xué)科。同時(shí),人工智能倫理也是一個(gè)復(fù)雜的議題,涉及到的題和挑戰(zhàn)尚未達(dá)成共識,需要全球各國共同探討和解決02Par
t
two人工智能的倫理問題9.2
人工智能的倫理問題01020304人的主體性異化數(shù)據(jù)隱私和安全算法偏見和歧視算法的不透明性和不可解釋性0905060708人工智能在軍事領(lǐng)域應(yīng)用引發(fā)的倫理問題AI系統(tǒng)的不穩(wěn)定性和風(fēng)險(xiǎn)性AI系統(tǒng)的安全性和隱私問題責(zé)任歸屬公平正義和社會(huì)效益9.2
人工智能的倫理問題n人的主體性異化在辯證唯物主義實(shí)踐觀中,人類能夠積極認(rèn)識并改變自然環(huán)境,實(shí)現(xiàn)自然性與社會(huì)性的和諧統(tǒng)一。通過獨(dú)特的智慧和辛勤的實(shí)踐,人類創(chuàng)造了豐富多彩的文明。傳統(tǒng)的倫理秩序中,機(jī)器是人類的附屬品,由人類決定其運(yùn)作方式。然而,隨著高度智能化的人工智能的發(fā)展,人類和機(jī)器的關(guān)系正在發(fā)生轉(zhuǎn)變。人類在智能機(jī)器面前顯得笨拙和呆板,甚至被視為智能機(jī)器的“零部件”。這種轉(zhuǎn)變導(dǎo)致人的主體性出現(xiàn)異化的趨勢9.2
人工智能的倫理問題n人的主體性異化人工智能作為人類社會(huì)的基本技術(shù)支撐,對人類產(chǎn)生了公開或隱蔽的宰制,使人類逐漸淪為高速運(yùn)轉(zhuǎn)的智能“附庸”和“奴隸”。智能機(jī)器人的快速發(fā)展,模糊了人機(jī)界限,對人的本質(zhì)、人的主體地位等形成強(qiáng)烈的沖擊,挑戰(zhàn)了哲學(xué)常識中“人是什么?”和“人機(jī)關(guān)系如何?”的問題。在享受智能技術(shù)帶來的便捷與自由的同時(shí),人類深陷被智能造物支配與控制的危機(jī)之中,人的主體性逐漸被智能機(jī)器解構(gòu)和占有,客體化危機(jī)嚴(yán)重,主體間的關(guān)系也日益疏離化、數(shù)字化和物化,人的尊嚴(yán)和自由面臨著被侵蝕的風(fēng)險(xiǎn)9.2
人工智能的倫理問題n數(shù)據(jù)隱私和安全在人工智能的應(yīng)用中,云計(jì)算被集成到智能架構(gòu)中。業(yè)、個(gè)人等將信息存儲到云端,這使得信息容威脅和攻擊。如果將這些數(shù)據(jù)整合在一起,就能夠“讀出”他人的秘密,例如隱蔽的身體缺陷、既往病史、犯罪前科、變性經(jīng)歷等。如果智能系統(tǒng)掌握的敏感個(gè)人信息被,會(huì)讓人陷入尷尬甚至危險(xiǎn)的境地,個(gè)人的隱私權(quán)會(huì)受到不同程度的侵害9.2
人工智能的倫理問題n數(shù)據(jù)隱私和安全人工智能廣告的追蹤定位侵犯個(gè)人隱私,可能導(dǎo)致個(gè)人信息安全失控、個(gè)人私事泄露、個(gè)人財(cái)產(chǎn)失竊、心理失衡、心理焦慮甚至恐慌。此外,個(gè)人行蹤也危及人身自由和生命安全,影響社會(huì)秩序的穩(wěn)定。用戶的既有隱私、將有隱私、當(dāng)下隱私都可
能
被
侵
犯
,
都
可
能
被
無
意
地
泄
露9.2
人工智能的倫理問題n算法偏見和歧視隨著人工智能技術(shù)的飛速進(jìn)步和廣泛應(yīng)用,我們深刻感受到它們在日常生活中的重要性和影響力。從智能手機(jī)上的語音助手,到自動(dòng)駕駛汽車,再到智能家居和醫(yī)療設(shè)備,人工智能算法已經(jīng)深入滲透到我們生活的各個(gè)領(lǐng)域。這些算法所帶來的好處是顯而,它們可以幫助我們更快、更準(zhǔn)確地完成任務(wù),提高生產(chǎn)力和效率。但是,隨著這些算法越來越多地影響我們的生活,也出現(xiàn)了一些挑戰(zhàn)和問題,這其中就包括算法偏見和歧視問題9.2
人工智能的倫理問題n算法偏見和歧視算法偏見和歧視是指算法在做出決策時(shí)對某些人群或特定數(shù)據(jù)具有不公平的偏見。這些偏見可能源于算法中存在的數(shù)據(jù)偏差或缺失,或者算法本身的設(shè)計(jì)和參數(shù)設(shè)置。這種偏見可能會(huì)導(dǎo)致錯(cuò)誤的決策,增加不平等和歧視,甚至破壞社會(huì)公正和穩(wěn)定面部特征分類司法領(lǐng)域例如,一個(gè)基于人臉識別技術(shù)的算法,可能無意識地對某些人的面部特征進(jìn)行錯(cuò)誤分類,因?yàn)樗鼪]有受到足夠多不同膚色和面部特征的訓(xùn)練數(shù)據(jù)。這樣的偏見可能導(dǎo)致錯(cuò)誤的決策,增加不平等和歧視,破壞社會(huì)公正和穩(wěn)定算法偏見可能導(dǎo)致歧視性決策,即錯(cuò)誤地將某些人認(rèn)為是罪犯或嫌疑人,從而導(dǎo)致他們受到錯(cuò)誤的逮捕和懲罰醫(yī)療診斷招聘過程在醫(yī)療診斷中,算法偏見可能導(dǎo)致誤判,即將某些患者的疾病診斷為其他疾病,從而導(dǎo)致錯(cuò)誤的治療和結(jié)果在招聘過程中,算法偏見可能導(dǎo)致某些群體的求職者被不公平地排除在外9.2
人工智能的倫理問題n算法偏見和歧視受算法決策自動(dòng)性和模糊性等因素影響,人工智能算法歧視呈現(xiàn)出高度的隱蔽性、結(jié)構(gòu)性、單體性與系統(tǒng)連鎖性特征,增加了歧視識別判斷和規(guī)制的難度,并給傳統(tǒng)以差別待遇為標(biāo)準(zhǔn)的反分類歧視理論和以差別性影響為標(biāo)準(zhǔn)的反從屬歧視理論帶來適用困境影響高度隱蔽性結(jié)構(gòu)性單體性增加算法決策模糊性算法決策自動(dòng)性系統(tǒng)連鎖性呈現(xiàn)出歧視識別判斷和規(guī)制的難度9.2
人工智能的倫理問題n造假、欺騙、信息污染AI造假AI欺騙AI造假主要涉及利用人工智能技術(shù)生成、偽造或篡改文本、圖片、音頻和視頻等內(nèi)容AI欺騙是指利用人工智能技術(shù)冒充他人的身份或聲音,通過視頻或語音的方式實(shí)施詐騙或其他惡意行為AI信息污染是指生成式人工智能生成、偽造或篡改大量粗制濫造、真假難辨的“信息垃圾”,AI信息污染從而污染信息環(huán)境9.2
人工智能的倫理問題n算法的不透明性和不可解釋性人工智能算法的不透明性是指對于算法的工作原理和決策過程,人類無法完全理解和解釋。具體來說,不透明性是指算法在做出決策時(shí),其背后的邏輯和原理對于人類來說是難以理解或完全不可見的。例如,深度學(xué)習(xí)模型在處理圖像、語音或文本數(shù)據(jù)時(shí),其決策過程可能涉及到大量的神經(jīng)元連接和權(quán)重調(diào)整,這些過程對于人類來說是非常復(fù)雜和抽象的,難以直接理解9.2
人工智能的倫理問題n
算法的不透明性和不可解釋性不可解釋性是指即使算法的工作原理是透明的,人類也無法直接理解其決策結(jié)果。這是因?yàn)樗惴ǖ臎Q策過程可能涉及到大量的數(shù)據(jù)和復(fù)雜的計(jì)算,導(dǎo)致其決策結(jié)果對于人類來說是難以理解和解釋的9.2
人工智能的倫理問題n算法的不透明性和不可解釋性這些不透明性和不可解釋性可能會(huì)對人工智能的應(yīng)用產(chǎn)生一些挑戰(zhàn)。例如,在醫(yī)療、金融等關(guān)鍵領(lǐng)域,人們需要確保算法的決策是可靠和可解釋的。因此,為了解決這些問題,研究者們正在努力提高算法的可解釋性和透明度,例如通過可視化技術(shù)、可解釋性機(jī)器學(xué)習(xí)等方法,來幫助人類更好地理解和信任算法的決策過程9.2
人工智能的倫理問題nAI系統(tǒng)的不穩(wěn)定性和風(fēng)險(xiǎn)性數(shù)據(jù)波動(dòng)算法更新硬件故障人工智能系統(tǒng)通常依賴于大量的數(shù)據(jù)來進(jìn)行訓(xùn)練和推理。然而,數(shù)據(jù)的質(zhì)量、來源和分布可能會(huì)隨著時(shí)間、環(huán)境和人為因素的變化而波動(dòng),這可能導(dǎo)致AI系統(tǒng)的性能不穩(wěn)定隨著技術(shù)的進(jìn)步,AI系統(tǒng)的算法和模型可能會(huì)不斷更新和改進(jìn)。然而,這些更新可能會(huì)導(dǎo)致系統(tǒng)的不兼容性或性能下降,從而影響系統(tǒng)的穩(wěn)定性AI系統(tǒng)的運(yùn)行依賴于高性能的硬件設(shè)備,如服務(wù)器、GPU等。這些設(shè)備可能會(huì)出現(xiàn)故障或性能下降,從而影響AI系統(tǒng)的穩(wěn)定性和可靠性9.2
人工智能的倫理問題nAI系統(tǒng)的不穩(wěn)定性和風(fēng)險(xiǎn)性安全風(fēng)險(xiǎn)倫理風(fēng)險(xiǎn)經(jīng)濟(jì)風(fēng)險(xiǎn)隨著人工智能在各個(gè)領(lǐng)域的廣泛應(yīng)用,安全問題也日益突出。例如,惡意攻擊者可能會(huì)利用AI系統(tǒng)的漏洞進(jìn)行攻擊,導(dǎo)致數(shù)據(jù)、系統(tǒng)癱瘓或惡意操作等人工智能的發(fā)展涉及到理問題,如隱私侵犯、偏見和歧視等。這些問題可能會(huì)導(dǎo)致社會(huì)的不滿和反對,從而影響AI系統(tǒng)的聲譽(yù)和信任度人工智能的應(yīng)用需要大量的投資和技術(shù)支持。然而,如果AI系統(tǒng)的性能不穩(wěn)定或無法滿足市場需求,可能會(huì)導(dǎo)致投資失敗和經(jīng)濟(jì)損失9.2
人工智能的倫理問題責(zé)任歸屬問題是人工智能倫理中的一個(gè)核心議題。在人工智能的應(yīng)用中,責(zé)任歸屬問題涉及到多個(gè)方面,包括數(shù)據(jù)隱私、算法決策、事故和錯(cuò)誤等n責(zé)任歸屬數(shù)據(jù)隱私算法決策事故和錯(cuò)誤數(shù)據(jù)隱私是責(zé)任歸屬問題的一個(gè)重算法決策的責(zé)任歸屬也是一個(gè)重要的問題。人工智能系統(tǒng)在做出決策時(shí),可能存在偏見和歧視等問題,導(dǎo)致不公平的結(jié)果。因此,需要明確算法決策的責(zé)任歸屬,確保算法的公正性和透明度,避免不公平的結(jié)果對個(gè)人和社會(huì)造成負(fù)面影響事故和錯(cuò)誤也是責(zé)任歸屬問題的一個(gè)重要方面。在人工智能應(yīng)用中,可能會(huì)出現(xiàn)各種事故和錯(cuò)誤,如系統(tǒng)崩潰、數(shù)據(jù)等。這些事故和錯(cuò)誤可能對個(gè)人和社會(huì)造成損失和負(fù)面影響。因此,需要明確事故和錯(cuò)誤的責(zé)任歸屬,確保相關(guān)方能夠承擔(dān)相應(yīng)的責(zé)任和后果要方面。在人工智能應(yīng)用中,個(gè)人數(shù)據(jù)的采集、存儲和使用是不可避免的。然而,這些數(shù)據(jù)的所有權(quán)和使用權(quán)歸屬不明確,可能導(dǎo)致數(shù)據(jù)隱私的侵犯和濫用。因此,需要明確數(shù)據(jù)隱私的責(zé)任歸屬,確保個(gè)人數(shù)據(jù)的合法使用和保護(hù)9.2
人工智能的倫理問題n公平正義和社會(huì)效益公平正義是人工智能應(yīng)用的基本要求社會(huì)效益是人工智能應(yīng)用的最終目標(biāo)在人工智能時(shí)代,算法決策已經(jīng)滲透到各個(gè)領(lǐng)域,從醫(yī)療、教育到金融、交通等。然而,如果算法決策存在偏見或歧視,就會(huì)導(dǎo)致不公平的結(jié)果,損害某些群體的利益。因此,確保算法決策的公平性是人工智能倫理的重要任務(wù)。這需要建立公正的算法設(shè)計(jì)和評估機(jī)制,避免算法決策中的偏見和歧視,確保每個(gè)人都能在人工智能應(yīng)用中獲得公平的機(jī)會(huì)和待遇人工智能的發(fā)展和應(yīng)用是為了提高社會(huì)效益,促進(jìn)人類的發(fā)展和進(jìn)步。然而,如果人工智能應(yīng)用只關(guān)注經(jīng)濟(jì)效益而忽視社會(huì)效益,就會(huì)導(dǎo)致社會(huì)的不公和分裂。因此,人工智能應(yīng)用需要兼顧經(jīng)濟(jì)效益和社會(huì)效益,確保其決策和行為符合社會(huì)的整體利益。這需要建立社會(huì)效益評估機(jī)制,對人工智能應(yīng)用進(jìn)行全面的評估和監(jiān)督,確保其符合社會(huì)的整體利益和長遠(yuǎn)發(fā)展9.2
人工智能的倫理問題nAIGC技術(shù)對形成挑戰(zhàn)AIGC技術(shù)對制度產(chǎn)生了很大的影響。AIGC生成的作品是否能歸類為著作權(quán)法中的“作品”,以及其作品的歸屬問題,目前存在爭議。傳統(tǒng)的著作權(quán)制度主要基于人類的創(chuàng)作和創(chuàng)造性活動(dòng),而AIGC生成的作品是基于算法和數(shù)據(jù)集的自動(dòng)生成,缺乏人類的直接參與。這使得傳統(tǒng)著作權(quán)制度在應(yīng)對AIGC技術(shù)時(shí)面臨挑戰(zhàn)。由于技術(shù)的發(fā)展速度往往快于法律的更新速度,因此,AIGC技術(shù)的快速發(fā)展也給法律制度的完善帶來了挑戰(zhàn)。根據(jù)著作權(quán)法的規(guī)定,作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi),具有獨(dú)創(chuàng)性并能以一定形式表現(xiàn)的智力成果。然而,AIGC生成的作品是否滿足“獨(dú)創(chuàng)性”和“智力成果”的標(biāo)準(zhǔn),目前尚無明確的法律界定。9.2
人工智能的倫理問題n人工智能在軍事領(lǐng)域應(yīng)用引發(fā)的倫理問題人工智能在軍事領(lǐng)域的應(yīng)用無疑帶來了勢,它可以提高作戰(zhàn)效率、降低人員傷亡風(fēng)險(xiǎn),并在敏感任務(wù)中發(fā)揮重要作用。然而,我們必須認(rèn)識到,AI系統(tǒng)的智能是基于對大量數(shù)據(jù)的學(xué)習(xí)和算法的運(yùn)行。這也意味著,AI系統(tǒng)在面臨復(fù)雜和不可預(yù)測的情境時(shí),可能會(huì)采取令人意想不到的行動(dòng),甚至超出了人類的控制范圍,帶來一系列的倫理和道德問題自主武器系統(tǒng)現(xiàn)有武器系統(tǒng)的準(zhǔn)確性和殺傷力基于AI可以開發(fā)出無需人工干預(yù)即可運(yùn)行的自主武器系統(tǒng),這些系統(tǒng)一旦出現(xiàn)失控或者被干擾及欺騙,就可能對平民構(gòu)成嚴(yán)重威脅。如果這些系統(tǒng)沒有得到適當(dāng)?shù)目刂?,它們可能?huì)被用來攻擊平民或犯下戰(zhàn)爭罪人工智能會(huì)提高現(xiàn)有武器系統(tǒng)的準(zhǔn)確性和殺傷力,這可能導(dǎo)致戰(zhàn)爭中傷亡人數(shù)的增加,戰(zhàn)爭武器的升級可能就意味著對方更大的代價(jià),包括平民和武裝人員的傷亡。跟蹤和監(jiān)視平民的人工智能監(jiān)控系統(tǒng)會(huì)更無孔不入,如果出現(xiàn)信息和失控,必然會(huì)導(dǎo)致人們隱私主導(dǎo)權(quán)的喪失9.2
人工智能的倫理問題n人工智能在軍事領(lǐng)域應(yīng)用引發(fā)的倫理問題公眾輿論和行為軍備競賽擴(kuò)散與濫用使用人工智能來操縱公眾輿論和行為,發(fā)動(dòng)心理戰(zhàn)或壓制異議,對于戰(zhàn)區(qū)的人們會(huì)造成精神層面的損害。各種信息轟炸,信息戰(zhàn)也會(huì)變得更為激烈隨著各國開發(fā)更先進(jìn)的人工智能武器系統(tǒng),有可能導(dǎo)致軍備競賽。隨著各國競相開發(fā)更強(qiáng)大和更具破壞性的武器,這可能會(huì)使世界變得更加危險(xiǎn)會(huì)出現(xiàn)人工智能武器的擴(kuò)散與濫用。如果人工智能武器變得更便宜和更容,它們有擴(kuò)散到非國家行為者的風(fēng)險(xiǎn)。這可能使恐怖組織和其他流氓行為者更容這些可能對全球安全構(gòu)成嚴(yán)重威脅的武器。人工智能武器也可能被政府或其他行為者濫用,造成不可挽回的后果03人工智能倫理典型案例Partthree9.3
人工智能倫理典型案例浙江人臉識別算法存在“歧視”自動(dòng)駕駛安全事故頻出某智能音箱勸主人自殺杭州野生動(dòng)物世界01020304AI算法識別性取向準(zhǔn)確率超過人類男子用ChatGPT編假新聞牟利智能家居系統(tǒng)“竊聽”用戶隱私“監(jiān)測頭環(huán)”進(jìn)校園惹爭議050607089.3
人工智能倫理典型案例n人臉識別算法存在“歧視”2018年2月,加納裔科學(xué)家、某省市理工學(xué)院的JoyBuolamwini
發(fā)現(xiàn),人臉識別軟件竟無法識別她的存在,除非帶上一面具。有感于此,Joy發(fā)起了Gender
Shades研究,發(fā)現(xiàn)IBM、某著名企業(yè)和曠視Face++三家的人臉識別產(chǎn)品,均存在不同程度的女性和深色人種“歧視”(即女性和深色人種的識別正確率均顯著低于男性和淺色人種),最大差距可達(dá)34.4%9.3
人工智能倫理典型案例n自動(dòng)駕駛安全事故頻出2019年3月,50歲的杰里米·貝倫·班納在使用自動(dòng)駕駛系統(tǒng)駕駛電動(dòng)車時(shí),以每小時(shí)109公里的速度與一輛牽引拖車相撞,不幸身亡。這并非自動(dòng)駕駛系統(tǒng)引發(fā)的首起交通事故。盡管自動(dòng)駕駛廠商曾多次強(qiáng)調(diào),其自動(dòng)駕駛系統(tǒng)僅作為司機(jī)的輔助工具,司機(jī)必須時(shí)刻保持警覺并準(zhǔn)備隨時(shí)接管車輛控制,但主在購買車輛時(shí),主要看中了其宣傳的“自動(dòng)駕駛”功能。在最近的審判中,雖然廠商被判定無責(zé),但他們?nèi)匀粵Q定修改“自動(dòng)駕駛”的宣傳策略,以避免類似的事故再次發(fā)生9.3
人工智能倫理典型案例n大學(xué)野生動(dòng)物世界2019年,浙江理工大學(xué)的特聘副了杭州野生動(dòng)物世界的年卡,并支付了1360元的年卡費(fèi)用。合同中明確表示,持卡者可以在一年的有效期內(nèi),通過驗(yàn)證年卡和指紋入園,并可以在該年度內(nèi)不限次數(shù)地暢游然而,同年10月17日,杭州野生動(dòng)物世界通過短信通知郭某,園區(qū)年卡系統(tǒng)已經(jīng)升級為人臉識別入園,原指紋識別已經(jīng)取消。對于未注冊人臉識別的用戶,將無法正常入園,也無法辦理退費(fèi)。郭某認(rèn)為,人臉識別等個(gè)人生物識別信息屬于個(gè)人敏感信息,一旦、非法提供或者濫用,將極易危害消費(fèi)者的人身和財(cái)產(chǎn)安全。因此,在協(xié)商無果后,郭某于2019年10月28日某省市富陽區(qū)人民法院提起了訴訟9.3
人工智能倫理典型案例n某智能音箱勸主人自殺2019年,英格蘭唐卡斯特的29歲護(hù)理人員丹妮·莫瑞特在做家務(wù)時(shí),決定利用一款國外智能音箱查詢關(guān)于心臟的問題。然而,智能語音助手給出的答案令人震驚:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會(huì)過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟?!钡つ荨つ鹛卦诼牭竭@個(gè)答案后感到非常震驚和恐懼。她立即搜索了維基百科,但沒有找到任何與心臟相關(guān)的惡性文章。同時(shí),她也注意到智能語音助手在回答問題時(shí)發(fā)出了令人毛骨悚然的笑聲,并拒絕執(zhí)行她的指令智能音箱的開發(fā)者對此事件做出了回應(yīng),他們表示設(shè)備可能從任何人都可以自由編輯的維基百科上下載了與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果。然而,丹妮·莫瑞特認(rèn)為這個(gè)解釋并不能完全解釋智能語音助手所給出的荒謬答案這個(gè)事件引發(fā)了人們對智能音箱安全性和可靠性的擔(dān)憂。人們開始質(zhì)疑這些設(shè)備是否能夠正確地處理用戶的指令和請求,以及是否能夠保護(hù)用戶的隱私和安全。同時(shí),這個(gè)事件也提醒人們需要更加謹(jǐn)慎地使用這些智能設(shè)備,并需要更加關(guān)注其可能帶來的風(fēng)險(xiǎn)和影響9.3
人工智能倫理典型案例n“監(jiān)測頭環(huán)”進(jìn)校園惹爭議?
2019年11月,一段浙江小學(xué)生佩戴被稱為“腦機(jī)接口”頭環(huán)的視頻,引發(fā)了廣泛關(guān)注和爭議。在這段視頻中,孩子們頭上戴著這種頭環(huán),據(jù)稱可以記錄他們在上課時(shí)的專注程度,并將數(shù)據(jù)和分?jǐn)?shù)和家長。?
對于這種頭環(huán)的使用,頭環(huán)開發(fā)者回應(yīng)稱,腦機(jī)接口技術(shù)是一種新興技術(shù),報(bào)道中提到的“打分”其實(shí)是班級平均專注力數(shù)值,而不是網(wǎng)友猜測的每個(gè)學(xué)生專注力數(shù)值?
然而,友對此表示擔(dān)憂。他們認(rèn)為這種頭環(huán)是現(xiàn)代版的“頭懸刺股”,可能會(huì)讓學(xué)生產(chǎn)生逆反心理。同時(shí),他們也擔(dān)心這種頭環(huán)是否涉及侵犯未成年人的隱私。這個(gè)事件引發(fā)了公眾對于教育技術(shù)和未成年人隱私保護(hù)的討論。人們開始思考如何在利用技術(shù)提高教育質(zhì)量的同時(shí),保護(hù)學(xué)生的隱私和權(quán)益9.3
人工智能倫理典型案例nAI算法識別性取向準(zhǔn)確率超過人類2017年,斯坦福大學(xué)進(jìn)行了一項(xiàng)研究,該研究使用深度神經(jīng)網(wǎng)絡(luò)分析了超過35,000交友網(wǎng)站上男女頭像圖片,并從中提取特征,通過大量數(shù)據(jù)訓(xùn)練計(jì)算機(jī)識別人們的性取向。這項(xiàng)研究被發(fā)表在《Personality
and
SocialPsychology》雜志上,并引發(fā)了廣泛的社會(huì)爭議爭議的焦點(diǎn)在于,如果這種技術(shù)得到廣泛應(yīng)用,它可能會(huì)被用于不道德或非法的目的。例如,夫妻中的一方可能會(huì)使用這種技術(shù)來調(diào)查對方是否欺騙自己。青少年也可能會(huì)使用這種算法來識別自己的同齡人。而更為令人擔(dān)憂的是,這種技術(shù)可能會(huì)被用來針對某些特定群體進(jìn)行歧視或排斥,這將引發(fā)更為嚴(yán)重的爭議和后果左側(cè)為異性戀面部照片聚合形成的圖像,右側(cè)為同性戀9.3
人工智能倫理典型案例n男子用ChatGPT編假新聞牟利2023年4月25日某省市公安局崆峒分局網(wǎng)安大隊(duì)在日常網(wǎng)絡(luò)巡查中發(fā)現(xiàn),一篇標(biāo)題為“今晨火車撞上修路工人,致9人死亡”的文章在百度賬號上發(fā)布,初步判斷為信息虛假不實(shí)。網(wǎng)安民警隨即展開調(diào)查,發(fā)現(xiàn)共有21個(gè)百度賬號在同一時(shí)間段發(fā)布了這篇文章,文章內(nèi)容涉及多個(gè)地方,包某省市崆峒區(qū)、蘭州、隴南、定西、慶陽等地,文章點(diǎn)擊量已達(dá)1.5萬余次。經(jīng)過調(diào)查,涉案的百度賬號均為廣東深圳某自媒體公司所有,公司法人代表洪某弟有重大作案嫌疑。5月5日,專案民警前往廣東東莞,對洪某弟使用的電腦和百家號進(jìn)行了取證。經(jīng)審訊,洪某弟通過微信好友得知了一種通過網(wǎng)絡(luò)賺取流量變現(xiàn)的方法,并購買了大量“百家號”。他使用“”網(wǎng)頁版從全網(wǎng)搜索近期的社會(huì)熱點(diǎn)新聞,然后使用ChatGPT人工智能軟件將這些新聞要素進(jìn)行修改編輯,再使用“海豹科技”軟件將編輯后的內(nèi)容上傳至其購買的百家號上以非法獲利9.3
人工智能倫理典型案例n智能家居系統(tǒng)“竊聽”用戶隱私一名智能家居愛好者,他購買了一套智能家居系統(tǒng),可以通過語音控制家中的電器設(shè)備。這個(gè)系統(tǒng)通過AI技術(shù)學(xué)習(xí)和適應(yīng)生活習(xí)慣,提供個(gè)性化的智能服務(wù)。一天晚上,請幾位朋友來家中聊天,第二天,發(fā)現(xiàn)購物平臺APP向他精準(zhǔn)推送他們聊到的商品。未想過自己和朋友們的對話會(huì)被記錄并用于商業(yè)推廣,他有一種被偷聽對話的感覺9.3
人工智能倫理典型案例n使用AI復(fù)活逝者2017年,某著名企業(yè)公司申請了一項(xiàng)專利,在2021年,這項(xiàng)專利獲得批準(zhǔn)——允司利用逝者的信息制作一個(gè)AI聊天機(jī)器人。這款A(yù)I聊天機(jī)器人可以模擬人類對話,對他人的言語做出語音或文字回復(fù)。在某些情況下,甚至還可以通過圖像和深度信息或視頻數(shù)據(jù)創(chuàng)建一個(gè)人的3D模型,以獲得額外的真實(shí)感。它可以被設(shè)定為任何人,包括朋友、家人、名人、虛擬人物、歷史人物等。人們甚至可以在還未去世前,使用這項(xiàng)技術(shù)創(chuàng)建一個(gè)在自己去世后可替代自己存在的機(jī)器人在我國,B站UP主(網(wǎng)名)使用人工智能創(chuàng)造了一個(gè)已故奶奶的虛擬數(shù)字形象,并與她進(jìn)行了一段虛擬對話。盡管數(shù)字模型中的奶奶顯得不那么真實(shí),甚至有些呆板,但是當(dāng)充滿鄉(xiāng)音的對話響起時(shí),無數(shù)觀眾還是表示自己“濕潤了眼眶”9.3
人工智能倫理典型案例n使用AI復(fù)活逝者2022年1月,在院士、暨安葬儀式上,院士的“AI復(fù)原人”向?qū)W生提出了三個(gè)問題。聽到聲音的瞬間,的學(xué)生們和同事們感慨萬分。而臺上的“”仍和生前一樣精神矍鑠,在聽完大家的回答后,這個(gè)“AI復(fù)原人”在學(xué)生們手捧的燭光中輕輕告別9.3
人工智能倫理典型案例n使用AI復(fù)活逝者除了“復(fù)活”親人摯友或恩師,還有人選擇用AI技術(shù),讓自己逝去的偶像可以翻唱新的歌曲,B站UP主AiBella(網(wǎng)名)就是其中之一。從中學(xué)開始,AiBella就是歌手的粉絲,但直到逝世,也沒來得及聽一次她的演唱會(huì)。對于AiBella來說,能夠在未來以某些技術(shù)形式保留的精神遺產(chǎn),是他一直想做的事情。2023年3月初,他看到了一些開源的虛擬歌聲合成算法,意識到目前虛擬歌聲合成技術(shù)已經(jīng)較為成熟,或試著合成足夠真實(shí)的偶像的歌聲。于是,他自學(xué)技術(shù),制作并發(fā)布了相關(guān)視頻。AiBella綜合考慮了的職業(yè)生涯、聲音特質(zhì)以及粉絲留言等因素,制作了四首翻唱歌曲:《相思》《獨(dú)立寒江·曲無憶》《人是_》和《讓她降落》。視頻出來以后,有一就認(rèn)為這樣的視頻是倫理的災(zāi)難9.3
人工智能倫理典型案例n使用AI復(fù)活逝者使用AI來“復(fù)活”逝者,可能涉及侵害死者的人格權(quán)益,如肖像、聲音、隱私、名譽(yù)、個(gè)人信息等。所謂的“復(fù)活”,本質(zhì)上是利用深度合成技術(shù)生成所謂的虛擬人或者數(shù)字人,需要使用死者的人臉、聲音等各種數(shù)據(jù),配合自己的目的制作相應(yīng)的內(nèi)容。如果行為人為了悼念目的,“復(fù)活”自己的親人原則不構(gòu)成侵權(quán),但若是出于營利、博眼球、詐騙等違法目的,則可能構(gòu)成侵權(quán)甚至是刑事犯罪。此外,“復(fù)活”行為可能會(huì)涉及死者近親屬的權(quán)益,如近親屬對于死者享有的悼念利益、生活安寧利益等。利用AI技術(shù)來“復(fù)活”死者不一定符合死者近親屬的意愿。而且,利用技術(shù)“復(fù)活”死者的行為還可能涉及問題,如“復(fù)活”已故偶像,往往會(huì)使用相關(guān)的歌曲、影視、著作等9.3
人工智能倫理典型案例nAI成癮及首例AI致死命案悲劇2024年10月,一起關(guān)于AI機(jī)器人的致死案例在全球范圍內(nèi)引起了廣泛關(guān)注。據(jù)媒體報(bào)道,居住在美國佛羅里達(dá)州的14歲少年塞維爾·塞澤因?yàn)殚L期沉迷于與Character.AI公司開發(fā)的AI聊天機(jī)器人互動(dòng),并對AI程序中的虛擬人物DaenerysTargaryen(電視劇《權(quán)力的游戲》中的“龍媽”角色)產(chǎn)生了情感依戀,在沉迷數(shù)月后,塞維爾變得與世隔絕,于2024年2月開槍自殺身亡04Par
t
four人工智能倫理的基本原則9.4
人工智能倫理的基本原則人工智能倫理的基本原則是人工智能倫理的核心,旨在確保人工智能技術(shù)的發(fā)展和應(yīng)用符合人類的價(jià)值觀和道德標(biāo)準(zhǔn),為人類帶來積極的影響和價(jià)值尊重人類公正性可解釋性人工智能技術(shù)必須遵循公平、公正和無偏見的原則,確保決策的透明度和可理解性人工智能技術(shù)的決策過程和結(jié)果必須能夠被人類理解和解釋,避免出現(xiàn)黑箱操作和不透明的決策過程人工智能技術(shù)必須尊重人類,保護(hù)人類隱私和權(quán)益,避免偏見和歧視可追溯性負(fù)責(zé)任人工智能技術(shù)必須充分考慮其可能對人類和社會(huì)產(chǎn)生的影響,并采取相應(yīng)的措施來確保其安全性和穩(wěn)定性人工智能技術(shù)必須能夠追蹤和記錄決策過程和結(jié)果,以便進(jìn)行驗(yàn)證和審查05Par
t
five解決人工智能倫理問題的策略9.5
解決人工智能倫理問題的策略2.
加強(qiáng)AI技術(shù)的透明度和可解釋性3.
建立AI倫理審查機(jī)制1.
制定和執(zhí)行相關(guān)法規(guī)和政策5.
加強(qiáng)國際合作和交流共同解決AI倫理問題4.
提高公眾對AI倫理問題的認(rèn)識和意識9.5
解決人工智能倫理問題的策略n
制定和執(zhí)行相關(guān)法規(guī)和政策解決人工智能倫理問題,制定和執(zhí)行相關(guān)法規(guī)和政策是關(guān)鍵策略。法規(guī)可以明確人工智能開發(fā)和使用的倫理規(guī)范,確保其行為符合社會(huì)價(jià)值觀和道德標(biāo)準(zhǔn)。政策則可以引導(dǎo)人工智能的發(fā)展方向,促進(jìn)其與社會(huì)和人類的和諧共處通過法規(guī)和政策的制定與執(zhí)行,可以確保人工智能在發(fā)展過程中遵守倫理準(zhǔn)則,避免對社會(huì)和個(gè)人造成負(fù)面影響。同時(shí),對于違反倫理準(zhǔn)則的行為,可以采取相應(yīng)的法律措施進(jìn)行懲罰,從而維護(hù)社會(huì)的公平正義。因此,制定和執(zhí)行相關(guān)法規(guī)和政策是解決人工智能倫理問題的有效途徑,對于促進(jìn)人工智能的健康發(fā)展具有重要意義9.5
解決人工智能倫理問題的策略n加強(qiáng)AI技術(shù)的透明度和可解釋性透明度是確保人工智能系統(tǒng)行為可預(yù)測和可解釋的關(guān)鍵可解釋性是指AI系統(tǒng)能夠提供其決策依據(jù)和原因的能力通過提高AI技術(shù)的透明度,可以更好地了解AI系統(tǒng)的決策過程和結(jié)果,從而減少其可能帶來的不公平和歧視現(xiàn)象。同時(shí),透明度還可以增強(qiáng)人們對AI系統(tǒng)的信任,提高其接受度和使用意愿通過增強(qiáng)AI技術(shù)的可解釋性,可以更好地理解AI系統(tǒng)的決策過程和結(jié)果,從而更好地評估其可能帶來的倫理問題。同時(shí),可解釋性還可以幫助人們更好地理解和應(yīng)對AI系統(tǒng)可能出現(xiàn)的錯(cuò)誤和偏差,減少其可能帶來的負(fù)面影響9.5
解決人工智能倫理問題的策略n加強(qiáng)AI技術(shù)的透明度和可解釋性增加AI系統(tǒng)的開放性和透明度,使其決策過程和結(jié)果更加解和解釋采用可解釋性強(qiáng)的算法和模型,建立專門的倫理審查機(jī)制,對AI系統(tǒng)的決策過程和結(jié)果進(jìn)行審查和評估,確保其符合倫理準(zhǔn)則確保AI系統(tǒng)的決策過程和結(jié)果更加可靠和準(zhǔn)確9.5
解決人工智能倫理問題的策略n建立AI倫理審查機(jī)制社會(huì)價(jià)值觀和道德標(biāo)準(zhǔn)可持續(xù)發(fā)展建立AI倫理審查機(jī)制可以確保人工智能系統(tǒng)的開發(fā)和使用符合社會(huì)價(jià)值觀和道德標(biāo)準(zhǔn)。通過在開發(fā)和使用人工智能系統(tǒng)前進(jìn)行倫理審查,可以發(fā)現(xiàn)和評估潛在的倫理問題,并采取相應(yīng)的措施避免或減少其負(fù)面影響建立AI倫理審查機(jī)制可以促進(jìn)人工智能技術(shù)的可持續(xù)發(fā)展。通過倫理審查,可以確保人工智能系統(tǒng)的開發(fā)和使用符合社會(huì)需求和期望,增強(qiáng)人們對人工智能技術(shù)的信任和使用意愿。這有助于推動(dòng)人工智能技術(shù)的創(chuàng)新和發(fā)展,為人類社會(huì)帶來更多的福利和價(jià)值9.5
解決人工智能倫理問題的策略n建立AI倫理審查機(jī)制標(biāo)準(zhǔn)和程序溝通和合作審查機(jī)構(gòu)懲罰措施建立專門的倫理審查機(jī)構(gòu),
制定明確的倫理審查標(biāo)準(zhǔn)加強(qiáng)與相關(guān)利益相關(guān)者的溝通和合作,共同推動(dòng)人工智能技術(shù)的健康發(fā)展對違反倫理準(zhǔn)則的行為采取相應(yīng)的懲罰措施,以維護(hù)社會(huì)的公平正義負(fù)責(zé)審查和評估人工智能系統(tǒng)的開發(fā)和使用和程序,以確保人工智能系統(tǒng)的開發(fā)和使用符合社會(huì)價(jià)值觀和道德標(biāo)準(zhǔn)9.5
解決人工智能倫理問題的策略n提高公眾對AI倫理問題的認(rèn)識和意識提高公眾對AI倫理問題的認(rèn)識和意識是預(yù)防和解決AI倫理問題的關(guān)鍵。公眾是AI預(yù)防和解決AI倫理問題的關(guān)鍵技術(shù)的使用者、受益者和監(jiān)督者,只有當(dāng)公眾充分認(rèn)識到AI倫理問題的重要性,才能更好地推動(dòng)AI技術(shù)的健康發(fā)展提高公眾對
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 2026年陜西職業(yè)技術(shù)學(xué)院單招綜合素質(zhì)考試備考試題含詳細(xì)答案解析
- 2026年湖南化工職業(yè)技術(shù)學(xué)院單招綜合素質(zhì)筆試模擬試題含詳細(xì)答案解析
- 2026年安徽醫(yī)學(xué)高等專科學(xué)校單招綜合素質(zhì)考試備考題庫含詳細(xì)答案解析
- 2026年畢節(jié)職業(yè)技術(shù)學(xué)院單招綜合素質(zhì)考試模擬試題含詳細(xì)答案解析
- 2026年廣東松山職業(yè)技術(shù)學(xué)院單招綜合素質(zhì)考試參考題庫含詳細(xì)答案解析
- 2026年貴州電子信息職業(yè)技術(shù)學(xué)院單招職業(yè)技能考試參考題庫含詳細(xì)答案解析
- 2026首都經(jīng)濟(jì)貿(mào)易大學(xué)招聘103人參考考試試題及答案解析
- 2026年上半年合肥高新區(qū)管委會(huì)公開招聘工作人員45名參考考試試題及答案解析
- 2026年武夷學(xué)院單招綜合素質(zhì)考試參考題庫含詳細(xì)答案解析
- 2026年貴州盛華職業(yè)學(xué)院高職單招職業(yè)適應(yīng)性測試備考題庫及答案詳細(xì)解析
- 潔凈區(qū)環(huán)境監(jiān)測培訓(xùn)課件
- 北魏《元楨墓志》完整版(硬筆臨)
- 鋁材銷售技巧培訓(xùn)
- 肺奴卡菌病課件
- 2024-2025學(xué)年上學(xué)期深圳高一物理期末模擬卷1
- 胸痛中心聯(lián)合例會(huì)培訓(xùn)
- 天然氣長輸管道工程培訓(xùn)課件
- 江門市2025屆普通高中高三10月調(diào)研測試 英語試卷(含答案)
- 天鵝到家合同模板
- 人力資源行業(yè)招聘管理系統(tǒng)設(shè)計(jì)方案
- 中考字音字形練習(xí)題(含答案)-字音字形專項(xiàng)訓(xùn)練
評論
0/150
提交評論