2025年-AI安全基準(zhǔn)模型-新版課件_第1頁
2025年-AI安全基準(zhǔn)模型-新版課件_第2頁
2025年-AI安全基準(zhǔn)模型-新版課件_第3頁
2025年-AI安全基準(zhǔn)模型-新版課件_第4頁
2025年-AI安全基準(zhǔn)模型-新版課件_第5頁
已閱讀5頁,還剩65頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

人7目錄導(dǎo)言 1.1治理與合規(guī) 9 91.2人工智能概覽 第二部分:真實案例研究和行業(yè)挑戰(zhàn) 20 2.2.2航 2.2.3關(guān)鍵基礎(chǔ)設(shè)施和基本服務(wù)1 232.2.4國防 29 0 4第三部分:人工智能場重構(gòu),受進(jìn)化論啟發(fā)的基準(zhǔn)模型 9 40 40 403.5人工智能韌性評分標(biāo)準(zhǔn) 413.6智能感知 428摘要為了應(yīng)對人工智能治理與合規(guī)的復(fù)雜挑戰(zhàn),本文引入了一種革命性的AI基準(zhǔn)模型。在追求收入增長的過程中,技術(shù)革新的步伐常常超過了監(jiān)管措施的建立速度,這往往導(dǎo)致Al系統(tǒng)的魯棒性和可信賴性無法得到充分保障。為了彌補(bǔ)這一關(guān)鍵性不足,我們基于進(jìn)化論和心理學(xué)原理設(shè)計出了一個創(chuàng)新的AI基準(zhǔn)模型。該模型將魯棒性與性能置于同等重要的位置,從而幫助企業(yè)的領(lǐng)導(dǎo)者更加主動地評估其AI系統(tǒng)的整體質(zhì)量。我們從過去人工智能失敗的案例研究中汲取教訓(xùn),并深入分析汽車、航空、關(guān)鍵基礎(chǔ)設(shè)施與基本服務(wù)、國防、教育、金融和醫(yī)療等行業(yè),為企業(yè)提供了實用的見解和可操作的指導(dǎo)。我們倡導(dǎo)將多元化的視角與監(jiān)管準(zhǔn)則相結(jié)合,以推動行業(yè)朝著更合乎道德、更可信賴人工智能應(yīng)用方向發(fā)展注重系統(tǒng)可信度是最大限度降低風(fēng)險、保護(hù)企業(yè)聲譽以及促進(jìn)負(fù)責(zé)的人智能創(chuàng)新、部署和應(yīng)用的關(guān)鍵。本文件可為政府官員、監(jiān)管機(jī)構(gòu)和行領(lǐng)袖等關(guān)鍵決策者提供支持,旨在協(xié)助他們建立人工智能治理框架,確保智能的開發(fā)、部署和使用均符合道德標(biāo)準(zhǔn)。此外,本文還引入了一種新長測試模型來評估人工智能的質(zhì)量,為企業(yè)的長期成功提供了實用工具導(dǎo)言人工智能(AI)的快速發(fā)展帶來了前所未有的進(jìn)步。然而,隨著人工智能系統(tǒng)變得越來越復(fù)雜,風(fēng)險也在不斷升級。從醫(yī)療算法偏見到自動駕駛汽車失靈,這些事件都在警示我們?nèi)斯ぶ悄苁ъ`將帶來嚴(yán)重后果。當(dāng)前的監(jiān)管創(chuàng)新往往難以跟上技術(shù)進(jìn)步的步伐,這將對企業(yè)的聲譽和運營帶來巨大的潛在風(fēng)險。為了應(yīng)對這些挑戰(zhàn),本文件強(qiáng)調(diào)了用更全面的視角應(yīng)對人工智能治理和合規(guī)性的迫切需求。我們將探討AI的基礎(chǔ)理論,研究各關(guān)鍵行業(yè)中存在的問題,并為負(fù)責(zé)任AI的實施提供實用指導(dǎo)。我們提出了一種新穎的方法,將人工智能的演變與生物學(xué)的進(jìn)化進(jìn)行比較,并引入了一個發(fā)人深省的概念——多樣性,以提高人工智能技術(shù)的安全性。我們還將討論不同智能之間的差異以及這些系統(tǒng)之間9如何成功地進(jìn)行交互。同時,我們還提出了一個創(chuàng)新的基準(zhǔn)框架,旨在提高Al這一顛覆性技術(shù)的安全性和可靠性。這一創(chuàng)新方法使決策者和技術(shù)團(tuán)隊能夠評估人工智能系統(tǒng)的安全性和可信度。我們倡導(dǎo)整合不同的觀點和監(jiān)管準(zhǔn)則,以促進(jìn)人工智能的創(chuàng)新符合倫理,并建立強(qiáng)有力的治理實踐。治理和合規(guī)是組織管理的重要部分,可確保企業(yè)遵守業(yè)務(wù)行為準(zhǔn)則中概述的法規(guī)、道德原則、標(biāo)準(zhǔn)和可持續(xù)實踐。與上述原則和法規(guī)保性一致,可確保有效的業(yè)務(wù)連續(xù)性和道德實踐。治理[1]是指對某一事物的監(jiān)督和控制,以)的方式實施。高級管理層負(fù)責(zé)制定戰(zhàn)略和風(fēng)險偏好,并通過政策標(biāo)準(zhǔn)程序建立治理框架。這些指令塑造了組織的整體風(fēng)險管理方法、合抄義務(wù)和決策過程。治理在企業(yè)內(nèi)部營造了一種文化氛圍,它強(qiáng)調(diào)責(zé)任、透和可持續(xù)性,同時確保公司上下都重視與自上而下的治理方,合規(guī)[2]遵循的是自下而上的方法,即各級員工執(zhí)行并遵守高級管理后制定的治理框架,以滿足監(jiān)管要求。合規(guī)的重點是確保組織內(nèi)部所有員工都遵守法律法規(guī)和行業(yè)標(biāo)準(zhǔn),以及企業(yè)內(nèi)部制定的業(yè)務(wù)行為準(zhǔn)則。它是組織管理的重要組成部分,可確保組織在適用的法律法規(guī)要求、可接受的道德底線范圍內(nèi)運營,并最小化風(fēng)險暴露面。雖然治理和合規(guī)是明確界定的目標(biāo),但人工智能的使用卻對傳統(tǒng)方法提出了挑戰(zhàn)。人工智能可以從不同的角度來定義,如作為一種技術(shù)、一套使用一個或多個模型的系統(tǒng)、一個業(yè)務(wù)應(yīng)用或一個用戶平臺。人工智能可以服務(wù)于單一或多個終控手段。在明確需要人為干預(yù)的特定情境中引入人類(Privacy-by-Design)和安全設(shè)成curity-by-Design)的原則,以便在流程早期就降低風(fēng)險(這體現(xiàn)了esecops中的“左移”理念)。這樣做可以限制最終產(chǎn)品中的外掛式反全1不可預(yù)見的風(fēng)險。測和評估,以識別并消除偏見和歧視。偏見是一個復(fù)雜的話題,需要在■一致性:一致性的數(shù)據(jù)可確保人工智能模型能夠從準(zhǔn)確和可靠的實例中學(xué)習(xí)。這對模型生成正確且有用的輸出結(jié)果至關(guān)重要。不一致或相互矛盾的數(shù)據(jù)會混淆模型,導(dǎo)致生成的文本或信息不準(zhǔn)確?!鰡栘?zé)制:在AI的設(shè)計、開發(fā)、部署和使用過程中建立問責(zé)制和責(zé)任制,包括清晰地界定各個環(huán)節(jié)中可能出現(xiàn)問題時的責(zé)任歸屬。目前,防止對最終用戶造成傷害的責(zé)任主要由AI應(yīng)用提供商獨自承擔(dān)。然而,通過額外的措施,如手冊或“模型卡片”[4]以及特定的用戶培訓(xùn),可以強(qiáng)調(diào)提供商和最終用戶之間的共同責(zé)任,并概述最終用戶所能期待的透明程度?!鲷敯粜裕洪_發(fā)設(shè)計精良且能夠抵御對抗性攻擊、數(shù)據(jù)擾動和其他形式干擾或操縱的人工智能。本文提出了一種新視角來評估魯棒性,以提高全局安全性。■法規(guī)遵從:確保AI的開發(fā)和部署遵守相關(guān)法律公初標(biāo)準(zhǔn),包括但不限于數(shù)據(jù)保護(hù),以及數(shù)據(jù)交易,隱私保護(hù)和久全在高度復(fù)雜的供應(yīng)鏈和價值鏈中,采取七種以兵同責(zé)任為基礎(chǔ)的方法,對于確保創(chuàng)造安全可信的人工智能至關(guān)重要。要技術(shù)團(tuán)隊、合規(guī)團(tuán)隊和法律團(tuán)隊必須參與其中,并且根據(jù)具體情況,能需要許多其他團(tuán)隊的參與。2024年3月28日發(fā)布的白宮備忘錄[5要機(jī)構(gòu)必須在60天內(nèi)指定一名首席人工智能官(CAIO)。這一角色使得價有相關(guān)團(tuán)隊能夠進(jìn)行戰(zhàn)略性和有目的地管理和調(diào)整,從而將“共同責(zé)任轉(zhuǎn)化為可追溯的衡量標(biāo)準(zhǔn)。1.2人工智能概覽本章概述了人工智能的發(fā)展歷史、人工智能技術(shù)和訓(xùn)練方法。盡管此概述不會深入討論數(shù)據(jù)的重要性,但我們必須承認(rèn)這是一個極其重要的主題,CSA的其他工作組也對此進(jìn)行了深入探討。下面列出了人工智能的一些里程碑事件,不局限于某一特定角度,而是概述了該領(lǐng)域的主要發(fā)展。自動駕駛汽車自動駕駛汽車“圖靈測試”“人工智能”的會議上被提出iRobot推出了 計算機(jī)程序“深藍(lán)“在1997年成功擊敗了姆創(chuàng)建了專家統(tǒng)能夠模擬人圖模選手李世石人工智能課程圖1:人工智能的史向言任務(wù)中的表現(xiàn)優(yōu)于之前的模型保持一致、確保安全性以及實現(xiàn)多模態(tài)(融合圖像、音頻和其他數(shù)據(jù)類型)。這段簡短的人工智能歷史展示了從最基本的計算器到生成式人工智能(GenAI)的機(jī)器學(xué)習(xí)是人工智能和計算機(jī)科學(xué)的一個分支,主要是利用數(shù)據(jù)和算法來模仿人類學(xué)習(xí),逐步提高模型的準(zhǔn)確性[7]。微型機(jī)器學(xué)習(xí)被廣泛定義為機(jī)器學(xué)習(xí)技術(shù)和應(yīng)用的一個領(lǐng)域,包括硬件(專用集成電路)、算法和軟件,能夠以極低功耗(通常在毫瓦及以下)執(zhí)行設(shè)備上傳感器數(shù)據(jù)分析,從而實現(xiàn)各種始終在線的用例并以電池供電設(shè)備為目標(biāo)[8],例如物聯(lián)網(wǎng)(loT)設(shè)備?!裆疃葘W(xué)習(xí)(高級ML)深度學(xué)習(xí)是一種人工智能技術(shù),讓計算機(jī)能夠模飲人的思維能力來處理數(shù)據(jù)。深度學(xué)習(xí)模型可以識別圖片、文本、聲音和數(shù)據(jù)中的復(fù)雜模式,利用神生成式人工智能指的是深度企轉(zhuǎn)換器(Transformer)模型,這些模型可以接收原始數(shù)據(jù)并“學(xué)習(xí)”到提示時生成統(tǒng)計上可能的輸出結(jié)果。與上述主要用于分類和模式識別征務(wù)的分類模型不同,生成式人工智能模型用于數(shù)據(jù)合成、匹配學(xué)習(xí)數(shù)據(jù)的高階模式和/或預(yù)測分析。在高層次上,生成模型對其訓(xùn)練數(shù)據(jù)的簡化表示進(jìn)行編碼,并預(yù)測與原始數(shù)據(jù)相似但不完全相同的下一組數(shù)據(jù)通用人工智能是人工智能的一種理論形式,代表了一種特定的人工智能發(fā)展理念。其特色是具有與人類相同(或更高)的智能,具有自我意識,能夠?qū)W習(xí)、解決復(fù)雜問題并規(guī)劃未來[10]。機(jī)器學(xué)習(xí)的類型盛化摯習(xí)盛化摯習(xí)數(shù)握能動聯(lián)邦學(xué)習(xí)圖2:機(jī)器學(xué)習(xí)的類型監(jiān)督學(xué)習(xí)是一種依賴“標(biāo)記數(shù)據(jù)”來訓(xùn)練算法的機(jī)器習(xí)方式。它適用于分類和回歸問題?!皹?biāo)記數(shù)據(jù)”提供已知輸入和期望輸便算法能夠識別數(shù)據(jù)模式并建立一種模型,用于預(yù)測之前未見過的數(shù)據(jù)的集示例算法:k-均值聚類(k-means)、k-中心點聚類(k-medoids)、層次聚●自監(jiān)督學(xué)習(xí)●聯(lián)邦學(xué)習(xí)關(guān)的重大問題(圖3)。這種方法(016年推出,通過只共享參數(shù)而不是數(shù)據(jù),同客戶端的數(shù)據(jù)集來聯(lián)合逃樂個全局模型。這對于隱私至關(guān)DatasetADatasetA圖3:聯(lián)邦學(xué)習(xí)系統(tǒng)架構(gòu)[12]聯(lián)邦學(xué)習(xí)的另一個優(yōu)勢(在之前提到的論文[12]中并未詳細(xì)討論)是它能夠利用“群眾的智慧”[13]。這個概念類似于人類大腦中神經(jīng)元的工作方式,通過非確定性的神經(jīng)過程來產(chǎn)生準(zhǔn)確的信息。目前,聯(lián)邦學(xué)習(xí)展現(xiàn)出了在多樣性基礎(chǔ)上融合隱私、性能和魯棒性的巨大潛力。雖然這種學(xué)習(xí)方法討論得不多,但在數(shù)據(jù)隱私和保密性至關(guān)重要的行業(yè)或應(yīng)用中,它顯示出了極大的前景,還有助于解決數(shù)據(jù)駐留的問題??赡軙绊懩P偷臏?zhǔn)確性或?qū)е码[私泄露。攻擊可能針對訓(xùn)練期間共享的模型更新,從而可能提取原始訓(xùn)練數(shù)據(jù)。為了解決這些問題,研究人員提出了隱私保護(hù)技術(shù),如差分隱私、分布式加密和零知識證明,以保護(hù)數(shù)據(jù)并過濾惡意行為者的異常數(shù)達(dá)了絡(luò)安全措施。雖然目前并沒有專門針對機(jī)器學(xué)習(xí)算法訓(xùn)練的具體法規(guī),但它受到主要監(jiān)管框架的影響,包括《通用數(shù)據(jù)保護(hù)GDPR)、《歐盟人工智能法案》和經(jīng)器學(xué)習(xí)(ML)和人工智能A訓(xùn)練的監(jiān)管法規(guī)正在迅速發(fā)展,并在《從原則到有關(guān)機(jī)器學(xué)習(xí)(ML)和人工智能(AI)的法規(guī)對數(shù)據(jù)貨幣化和使用人工智能指導(dǎo)商業(yè)決策具有重大影響。這些影響表現(xiàn)在多個方面,包括運營變化、戰(zhàn)略調(diào)整和倫理考量,以及對數(shù)據(jù)收集和使用的限制/要求、數(shù)據(jù)偏見和數(shù)據(jù)質(zhì)量。例如,某些平臺禁止將其數(shù)據(jù)用于人工智能訓(xùn)練(如某企業(yè)聲明:“未經(jīng)我們事先書面同意,明確禁止出于任何目的以任何形式抓取或爬取服務(wù)”[14]),而有些平臺則選擇通過許可協(xié)議出售其數(shù)據(jù)(如Reddit平臺[15])。滿足監(jiān)管要求可能會帶來巨大的合規(guī)成本,特別是對于在多個司法管轄區(qū)運營的企業(yè)而言。盡管存在挑戰(zhàn),但監(jiān)管也為企業(yè)帶來了機(jī)遇。善于駕馭監(jiān)管環(huán)境的企業(yè)可以通過提供更安全、更透明、更合乎道德的人工智能解決方案,使自己脫穎而出。這可以吸引越來越注重隱私的消費者和合作伙伴,從而有可能打開新的市場或創(chuàng)造更強(qiáng)的客戶忠誠度。許多機(jī)器學(xué)習(xí)框架和庫都遵循開源計劃許可協(xié)議,如Apache2.0[16]或MIT[17]。某些許可協(xié)議可能會禁止基于其構(gòu)建的應(yīng)用程序用于商業(yè)用途。歐洲專利局(EPO)公布了其修訂后的《審查指南》[18],[19],其中包括對EPO在ML和AI領(lǐng)域創(chuàng)新審查程序方面進(jìn)行了一些重大修改。最近的修正案規(guī)定,AI或ML發(fā)明的申請人必須更詳盡地闡明數(shù)學(xué)技術(shù)和訓(xùn)練輸入/數(shù)據(jù),以確保能以足夠詳盡的方式在整個權(quán)利要求范圍內(nèi)復(fù)制發(fā)明的技術(shù)多靈。下文引用的文章指構(gòu)、激活函數(shù)、結(jié)束條件和學(xué)習(xí)機(jī)制都是申請時可能需要公開的相關(guān)技細(xì)節(jié)”。這篇文章[20]總結(jié)了這些變更的深遠(yuǎn)影響,并就此主題進(jìn)行了人述。2024年1月23日,日本文化廳AC)發(fā)布了“人工智能與版權(quán)方針”草案,并征求公眾意見。這一舉措旨本如何考量版權(quán)材料的攝取和輸出問提供了該草案的核心購容和最新進(jìn)展。在新加坡,有關(guān)版權(quán)方面存在的爭議在文章[22]中闡述;目前這是一個非常不穩(wěn)定的領(lǐng)域。該問題在《從原則到實踐:動態(tài)監(jiān)管環(huán)境中負(fù)責(zé)任的人工智能》一書中也有進(jìn)一步論述。在這一部分中,我們以幾個行業(yè)為例,重點概述了人工智能時代的概況和當(dāng)前面臨的挑戰(zhàn)。有關(guān)法律和監(jiān)管事項的更多信息,請參考《從原則到實踐:動態(tài)監(jiān)管環(huán)境中負(fù)責(zé)任的人工智能》一書。人工智能案例研究的這段簡短歷史可以追溯到20世紀(jì)90年代末,至少對金中,我們將通過一些實例展示從2016年到本文發(fā)表期間,人工智能在實際應(yīng)用中遇到的主要挑戰(zhàn)。這些實例表明了GenAl中的偏見問題一直是最大的微軟的人工智能聊天機(jī)器人Tay,最初用于在Twitter上進(jìn)行有趣的對但在發(fā)布后的短短24小時內(nèi)迅速變成了一個發(fā)布種族主義和攻擊性言論的平臺。Tay的回應(yīng)?!?018年:亞馬遜的以招聘工具對女性有偏見該引擎在篩選時傾向于男性候選人,從而引發(fā)了問題。2017年,由于公平性擔(dān)2019年3月,JeremyBanner在駕駛特斯拉Model3時啟動了自動輔助駕駛功能(Autopilot),隨后車輛與一輛半掛卡車相撞,導(dǎo)致Banner死亡。這一事獲取和利用方面的系統(tǒng)性不平等。如果能糾正這一偏養(yǎng)臨著增加需要額外醫(yī)●2019年:蘋果信用卡涉嫌性別岐視“在一位知名軟件開發(fā)商揭露了果信月卡為男性和女性客戶提供不同信用額度的現(xiàn)象后,這一事件迅速存發(fā)酵,最終引發(fā)了對蘋果(與高盛合作發(fā)布的)信用卡業(yè)務(wù)的監(jiān)管?!疤O果信用卡性別歧視”相關(guān)報道可參考:[32],[33],[34],[3S久在2021年,有報道稱“紐約州金融服束的一項調(diào)查[36]發(fā)現(xiàn)蘋染的銀行合作在刑事司法系統(tǒng)中,諸如COMPAS(美國矯正罪犯管理替代制裁評估系統(tǒng))和OASys(英國罪犯評估系統(tǒng))等工具被用于對罪犯進(jìn)行風(fēng)險評估和管理。這些系統(tǒng)協(xié)助當(dāng)局對罪犯的量刑、假釋和治療項加拿大航空公司(AirCanada)面臨嚴(yán)格審查,因為理在一場針對聯(lián)合健康保險(UnitedHealth)的法律訴訟中,多個家庭指控該●2024年:谷歌的Gemini:人工智能編見的教訓(xùn)個體。埃隆-馬斯克和保守派人指責(zé)谷歌的算法有偏見。作為回應(yīng),Google暫停了Gemini的進(jìn)一步推企其回應(yīng)缺乏透明度。這一事件凸顯了人工智能在2.2行業(yè):法規(guī)與挑戰(zhàn)汽車行業(yè)1尋求在自動駕駛和無人駕駛功能(SAE4級和5 (歐盟)2019/2144法規(guī),該法規(guī)針對機(jī)動車輛及其掛車,以及為這些車輛設(shè)計及對車輛乘員和脆弱道路使用者的保護(hù)[46]。其中,第11條(關(guān)于自動駕駛車輛和全自動駕駛車輛的特定要求)明確規(guī)定了與AI相大全系統(tǒng)要求,特別是當(dāng)AI技術(shù)被用于驅(qū)動自動駕駛和全自動駕駛車輛要注意的是,該條款并未專門針對AI制定,但明確提及了“自動襲駛?cè)A輛和全自動駕駛車輛”。雖然這項歐盟法律并未直接制定人工能雙其功能本身的具體標(biāo)準(zhǔn),但I(xiàn)SO用的指導(dǎo)方針[48],眾而協(xié)調(diào)現(xiàn)有法規(guī)和既定原則,如預(yù)期功能的安全另一個關(guān)于人工智能(功能)安全的行業(yè)標(biāo)準(zhǔn)是ISO/TR5469:2024《人工智準(zhǔn)重點關(guān)注自動駕駛系統(tǒng)(SAE3級和4級)的開發(fā)與驗證,并提供了全球適用TS5083所取代。新的ISO文檔涵蓋了“開發(fā)并驗證配備有安全自動駕駛系統(tǒng)的自動駕駛車輛的步驟”,這些步驟同樣遵循SAE3級和4級的要求。此外,該文檔還將深入探討這類自動駕駛系統(tǒng)所需達(dá)到的安全級別,其目標(biāo)是在與人工駕駛相比的情況下,顯著降低因自動駕駛而引發(fā)的總體風(fēng)險。全球航空界與其他行業(yè)一樣,在計算機(jī)系統(tǒng)的使用方面遵循許多相同的實用標(biāo)準(zhǔn)。這也適用于人工智能和運行人工智能的平臺。為此,航空領(lǐng)域也將采用公認(rèn)5469[49]、NISTAIRMF[55],以及與航空公司或制造商管報圍相關(guān)的AI道德標(biāo)準(zhǔn)。然而,目前尚未實施針對AI的具體法規(guī)。全球航空業(yè)的管理機(jī)構(gòu),如美國聯(lián)邦航空員個、歐盟歐洲航空安全局 (EASA)、英國民航局(CASA)和澳大利亞前局(AUCASA),工智能給其行業(yè)帶來的好處和挑戰(zhàn)。不過,前他們還沒有對人工智能的使用進(jìn)行監(jiān)管。上述機(jī)構(gòu)已經(jīng)成立了人別工作組,以調(diào)查人工智能在飛機(jī)上、地面操作和行業(yè)監(jiān)管中的使用買國CASA目前正處于向行業(yè)公開征求意見的階段[56],而美國FAAD紅建了一個由Pham博士領(lǐng)導(dǎo)的技術(shù)專家團(tuán)隊[57],該團(tuán)隊將專注于AI在航空領(lǐng)域的研究與應(yīng)用。人工智能被廣泛應(yīng)用于軍事航空的多個方面,包括情報數(shù)據(jù)分析、自動駕駛車輛、機(jī)場和空軍基地的預(yù)測性維護(hù)和實體安全。此外,AI還用于管理IT安全運和貨運管理等工作。大多數(shù)提出的AI使用方案都圍繞著預(yù)測性維護(hù)、航線和維護(hù)規(guī)劃以及乘客與貨物管理方面的機(jī)器學(xué)習(xí)。生成式人工智能的使用僅限于航空公司客戶聊天機(jī)器人和決策支持系統(tǒng)。不過,目前正在進(jìn)行的重要研究是探索AI在飛行全過程中的空中交通控制應(yīng)用。歐盟于2022年10月發(fā)布了關(guān)于AI在空中交通管理中應(yīng)用的CORDIS成果包,涵蓋了歐洲人工智能控制空中交通的許多管框架、安全標(biāo)準(zhǔn)以及適應(yīng)技術(shù)不斷進(jìn)步的需求的重要煙高性能人工智能系統(tǒng)在關(guān)鍵基礎(chǔ)設(shè)施中奇超的作用毋庸置疑。相關(guān)的技術(shù)而,在大多數(shù)情況下,僅通過物聯(lián))設(shè)備、集成tinyML[8]和邊緣計算來集成人工智能系統(tǒng),會帶來新的洞。分散化的數(shù)據(jù)處理雖然有利于提高系統(tǒng)響應(yīng)速度,但卻擴(kuò)大了進(jìn)下剛絡(luò)威脅的攻擊面。國際標(biāo)準(zhǔn)化組織(ISO)和國61850-90-4:2020[62],并通過具體的措施來保護(hù)這些技術(shù)。然而,針對于關(guān)鍵基致命弱點:物聯(lián)網(wǎng)和邊緣人工智能智能法案、NIS2指令和美國人工智能行政命令等現(xiàn)行法規(guī)非常重視網(wǎng)絡(luò)安全和要去不斷探索。ENISA的行業(yè)研究報告《人工智能中的網(wǎng)絡(luò)安全和隱私——對電打造面向未來的基礎(chǔ)設(shè)施全球范圍內(nèi)采取一致、有效的方法來保護(hù)關(guān)鍵基礎(chǔ)設(shè)施的安全。2022年,由水源研究基金會(WRF)和水源環(huán)境保護(hù)協(xié)會(WEF)聯(lián)合發(fā)起的“領(lǐng)導(dǎo)人技術(shù)創(chuàng)新論壇”(LIFT)計劃的獲獎?wù)呃眉舛说娜斯ぶ悄芎蛿?shù)據(jù)科學(xué)技術(shù)來保護(hù)(防范網(wǎng)絡(luò)安全威脅)、預(yù)測(系統(tǒng)狀態(tài))和優(yōu)化設(shè)施流程2024年3月1日,美國總統(tǒng)科技顧問委員會P陽A5發(fā)布了一份報告,副標(biāo)題為“優(yōu)化數(shù)據(jù)時代下的關(guān)鍵基礎(chǔ)設(shè)施”中很大一部分專門論述了人持續(xù)進(jìn)化:發(fā)展之路脅。但要確保在所有關(guān)鍵基礎(chǔ)設(shè)施行業(yè)之間做到共享威脅情報和最佳實踐做法,才能從更廣泛的知識和經(jīng)驗庫中受益;要建立持久的培訓(xùn)機(jī)制,通過針對性的專業(yè)性培養(yǎng)才能讓安全專業(yè)人員掌握最新的知識和操作工具,從而去應(yīng)對日益變化的新威脅。將人工智能融入關(guān)鍵基礎(chǔ)設(shè)施是一個充滿挑戰(zhàn)但又發(fā)展?jié)摿κ愕呐e措。但如何在提升性能的同時保障設(shè)施安全,是一項復(fù)雜但至關(guān)重要的任務(wù)。只有通過制定針對性的法規(guī)、采用標(biāo)準(zhǔn)化的安全措施以及開展國際合作,我們才能更好地駕馭這一項前沿技術(shù)。關(guān)鍵基礎(chǔ)設(shè)施的未來取決于我們是否有能力在利用人工智能優(yōu)勢的同時防范風(fēng)險,確保為社會正常運轉(zhuǎn)奠定靈活、高效和安全的基礎(chǔ),并且在實際決策或操作中,必須要有人類參與,僅將人工智能策作為參考。目前,我們僅有一套并不完善的法規(guī)。雖然有慶能的法律法規(guī)正在全球范圍內(nèi)不斷完善,但目前還沒有具體的法律法艦關(guān)主人工智能在關(guān)鍵基礎(chǔ)設(shè)施中的應(yīng)用。其重點在于一般性原則?,F(xiàn)有的規(guī)和些倡議則側(cè)重于強(qiáng)調(diào)網(wǎng)絡(luò)安全、一些政府機(jī)構(gòu)正在積極制定1的有關(guān)開發(fā)和部署框架的新標(biāo)準(zhǔn),其中一部分就側(cè)重于人工智能在實建基礎(chǔ)設(shè)施當(dāng)中的應(yīng)用?!衩绹?4110號行政命令(2023年10月)年10月):關(guān)于在關(guān)鍵基礎(chǔ)設(shè)施和網(wǎng)絡(luò)安全中管理人工智能的第4.3條[66]。該計劃概述了如何評估和降低關(guān)鍵基礎(chǔ)設(shè)施中人工智能風(fēng)險,優(yōu)先考慮制定安全準(zhǔn)則,成立人工智能安全和安保委員會,并對基礎(chǔ)設(shè)施所有者和運營商實施監(jiān)管。網(wǎng)絡(luò)安全和基礎(chǔ)設(shè)施安全局(CISA)負(fù)責(zé)評估和減輕人工智能對關(guān)鍵基礎(chǔ)設(shè)施的歐盟人工智能法案[68],[69]概述了人工智能系統(tǒng)的監(jiān)管框架,重點關(guān)注合定性和網(wǎng)絡(luò)安全標(biāo)準(zhǔn)。它根據(jù)風(fēng)險等級對人工智能系統(tǒng)進(jìn)行分類,對于關(guān)鍵基礎(chǔ)設(shè)施中的“高風(fēng)險”應(yīng)用須接受更嚴(yán)格的監(jiān)管。2024年3月13日,歐盟議會批準(zhǔn)了經(jīng)濟(jì)合作與發(fā)展組織(OECD)原則1.5[71]強(qiáng)調(diào)了各行為主體對人工智能系統(tǒng)的開發(fā)、部署和使用的責(zé)任(問責(zé)制),尤其是那些具有潛在社會影響力的人工智能系統(tǒng)。關(guān)鍵基礎(chǔ)設(shè)施無疑是一個具有重大社會影響的領(lǐng)域,要確保該領(lǐng)域人工智能的應(yīng)用符合問責(zé)制這一原則。這些原則對于推動國際討論具有一定的影響力。AIDA[72]旨在指導(dǎo)加拿大國內(nèi)人工智能的創(chuàng)漢發(fā)展和問責(zé)制建設(shè)。它確保以安全的方式開發(fā)和使用人工智能系統(tǒng),滿足監(jiān)管體系對于個人和社會經(jīng)濟(jì)領(lǐng)域所使用的人工智能系統(tǒng)進(jìn)行管理的需外,它還強(qiáng)調(diào)要保護(hù)高影響力人工智能系統(tǒng)可能會受到的傷害,避免負(fù)能六入生的的角色、參與人工智能開作企業(yè)的義務(wù)以及確保合規(guī)的執(zhí)行機(jī)制。您可以在我們的論文《實踐原則:動態(tài)監(jiān)管環(huán)境下的人工智能責(zé)任制體系建設(shè)》中找到對現(xiàn)有的相關(guān)舉措、人工智能的法律以及監(jiān)管環(huán)境的深入分析。在未來的戰(zhàn)場上,現(xiàn)實世界和數(shù)字虛擬化世界將交織在一起,形成一個復(fù)雜而具有爭議性的環(huán)境。新的威脅和挑戰(zhàn)將不斷涌現(xiàn),而人工智能將成為獲取領(lǐng)先優(yōu)勢、進(jìn)行全面態(tài)勢感知、收集情報和改進(jìn)決策的關(guān)鍵因素。機(jī)器人、大數(shù)據(jù)、自動化系統(tǒng)以及生物技術(shù)等將為國防部隊帶來新的機(jī)遇和風(fēng)險。人工智能對于整合、利用這些技術(shù)以及防御對手使用這些技術(shù)都扮演了至關(guān)重要的角色。軍方需要尋求與民營企業(yè)、學(xué)術(shù)界和盟國建立伙伴關(guān)系,促進(jìn)創(chuàng)新、推廣應(yīng)用,培養(yǎng)全新的機(jī)協(xié)同,共同學(xué)習(xí)。這些都需要與人工智能法規(guī)和監(jiān)管體系相吻合。然而,想要在國防領(lǐng)域使用人工智能,那么道德、安全和可信度是最重要的考慮因素。法律法規(guī)和監(jiān)管體系都能通過創(chuàng)造公平的競爭環(huán)境,促進(jìn)創(chuàng)新與合作,提高公眾的信任度和接受度,來推動國防工業(yè)向前發(fā)展?!袢斯ぶ悄芟嚓P(guān)的法律法規(guī)和監(jiān)管體系有助于確定在國防中開發(fā)、部署和使用人工智能系統(tǒng)的標(biāo)準(zhǔn)和最佳的操作程序,降低人工智能受到偏見、傷害或濫用的風(fēng)險,并增強(qiáng)人工智能使用者的責(zé)任感和透照●它可以通過建立共同市場,促進(jìn)競爭優(yōu)勢培養(yǎng)采利教國防工業(yè)的發(fā)展。統(tǒng)一國防機(jī)構(gòu)的規(guī)則和要求也有助于國防和非食防部門人工智能系統(tǒng)的跨境合作和互操作性。●人工智能相關(guān)的法律法規(guī)和監(jiān)管可增強(qiáng)公眾對國防領(lǐng)域人工智能的信任和接受程度。人工智能在國防中的歷史作用揭開了我們今天所熟知的人工智能的序幕以來,第一批的投資和使用都是由國防部門推動的。利用自然語言處理(NLP)將語音轉(zhuǎn)為文本,以及利用機(jī)器學(xué)習(xí)分析文本和模仿人類思維和推理的相關(guān)技術(shù)正在迅速發(fā)展。最初的投資由國防部門提供,主要是美國國防部高級研究項目管理局(DARPA),該機(jī)構(gòu)資助了多家機(jī)構(gòu)的人工智能研究。隨著技術(shù)的進(jìn)步,人工智能系統(tǒng)的計算能力增強(qiáng),數(shù)據(jù)成本降低,新的使用案例不斷涌現(xiàn)。1970年,通過投放傳感器,人工智能模型可以確定目標(biāo)、分配資源和任務(wù)計劃,從而首次實現(xiàn)了半自動化戰(zhàn)爭[74]。20世紀(jì)80年代,這一技術(shù)發(fā)展到智能武器、模擬和決策支持。2018年,美國國防部宣布人工智能“即將改變未來戰(zhàn)場的特性[75]”。2018年,五角大樓成立了聯(lián)合人工智能中心(JAIC)和國家人工智能安全委員會。美國國會為了表達(dá)支持,在人工智能領(lǐng)域投資了10億美元,并多次投資利用人工智能成果的系統(tǒng),如全自主決策和無人系統(tǒng)。中國也采取了相應(yīng)的行動,宣布要在2030年之前在人工智能領(lǐng)域引領(lǐng)世界。俄羅斯總統(tǒng)弗拉基米爾-普京曾有過著名的預(yù)言:“誰成為這一領(lǐng)域的領(lǐng)導(dǎo)者,誰就將成為世界的統(tǒng)治者[76]”。隨著人類社會生產(chǎn)力的提高、決策的自動化和人工智能洞察力的增強(qiáng),我們是否會造成戰(zhàn)爭發(fā)生得太快而人類無法干預(yù)的局面?對人工智能的大量投資是否會導(dǎo)致人工智能的軍備競賽?我們已經(jīng)看到了人工智能的魅力所在。自動化機(jī)器和機(jī)器人價格低廉,而且可以被替代。但人類則不然。自動化不會疲勞,不需要龐大的供應(yīng)鏈支持,也避免了人類的生物性缺陷。另一方面,我們必須萬分小心謹(jǐn)慎,僅僅依算秋器教出生死攸關(guān)的決定可能會帶來可怕的后果。引用美國科技政策辦公室STP)主任、DARPA前主任A.Prabhakar博士的話說:“當(dāng)我們審視公智能的發(fā)展時,我們看到了一些非常強(qiáng)大的東西,但我們也看到技術(shù)伋和當(dāng)有限。問題是,當(dāng)它出錯時,其錯誤我們是否造成了前所未存的剛帶損害?自主戰(zhàn)爭機(jī)器是否是一場即將發(fā)生的戰(zhàn)爭罪行?現(xiàn)階段在國防系統(tǒng)中便用的人工智能一般僅在明確、限定的環(huán)境中執(zhí)行復(fù)雜度較低的單一任務(wù),例如圖像識別、用于保衛(wèi)艦船的速射炮以及長時間尋找明確特征的導(dǎo)彈。人工智能在國防領(lǐng)域的應(yīng)用因其潛在的不可預(yù)估的影響力和殺傷力而有所不同。標(biāo)準(zhǔn)機(jī)構(gòu)和監(jiān)管機(jī)構(gòu)編撰的大多數(shù)相關(guān)材料很少涉及與國防部門相關(guān)的用例。國防部門經(jīng)常會參考公共領(lǐng)域的可用資源,為其量身定制類似的參考資料。對這些資料的訪問通常僅限于(1)不向希望傷害我們的心懷不軌者提供洞察力;(2)對手能夠從他人開發(fā)的知識產(chǎn)權(quán)中學(xué)習(xí)。技術(shù)也模糊了民用和國防部門之間的界限。一方面,國防部門需要保密以保護(hù)國防,也需要靈活性,而嚴(yán)格的法規(guī)會限制這種靈活性。另一方面,人工智能在國防領(lǐng)域出現(xiàn)偏差所帶來的潛在危害可能遠(yuǎn)遠(yuǎn)超過非國防領(lǐng)域。尤其是需要在自主決策和人工監(jiān)督之間取得平衡時,其在國防領(lǐng)域的應(yīng)用很容易引發(fā)道德、安全及保障方面的問題,缺乏明確的指導(dǎo)方針或靈活的參與規(guī)則可能會導(dǎo)致濫用或其他不可控的意外后果。歐盟沒有公開的專門針對國防的人工智能相關(guān)法律法規(guī)。雖然沒有具體的規(guī)定可以稱為“人工智能國防法案”,但北大西洋公約組織 (NATO)制定了一項戰(zhàn)略,聚焦于加快推動人工智能在國防當(dāng)中的應(yīng)用進(jìn)程。該戰(zhàn)略旨在加強(qiáng)關(guān)鍵人工智能的推動因素,并制定了在國防應(yīng)用中負(fù)責(zé)任且合乎道德地使用人工智能的政策。美國國防部(DOD)于2023年2月公布了《人工智能和自動化技術(shù)的軍事應(yīng)用宣言》。雖然不是立法法規(guī),但它是一項旨在確保軍隊可以負(fù)責(zé)任地使用新興人工智能技術(shù)的宣言。人工智能(Al)與教育領(lǐng)域的提高學(xué)習(xí)成果和解決教育不平等問題提供了機(jī)遇。自適應(yīng)學(xué)習(xí)系統(tǒng)、人能導(dǎo)師和預(yù)測分析等人工智能技術(shù)將根據(jù)不同的學(xué)習(xí)需求提供個性化然而,由于人工智能系統(tǒng)涉及廣泛的數(shù)據(jù)收集和處理,這種整合引發(fā)行業(yè)內(nèi)部對隱私和數(shù)據(jù)保護(hù)的擔(dān)憂[78]。為確保在教育領(lǐng)在教育領(lǐng)域?qū)嵤┤斯ぶ悄芗夹g(shù)時,公平性和可獲取性是至關(guān)重要的考慮因素。教育機(jī)構(gòu)和決策者必須確保人工智能工具不會加劇現(xiàn)有差距,而是成為增強(qiáng)賦能的這強(qiáng)調(diào)了開發(fā)流程的透明性和包容性。教育工作者、技術(shù)專家、倫理學(xué)家和政策制定者之間有必要開展合作,來指導(dǎo)開發(fā)符合教育倫理的人工智能系統(tǒng)[78]。要與包括學(xué)生、家長和教育工作者在內(nèi)的利益相關(guān)者持續(xù)對話,使人工智能計劃與社會價值觀和社會期望保持一致。此外,要對教育生態(tài)系統(tǒng)中的所有參與怎么會這樣?許多人可能會認(rèn)為2008個的融危機(jī)與雷曼兄弟公司的倒閉立于1994年。它由諾貝爾經(jīng)濟(jì)學(xué)透倫-斯科爾斯(Myron損失了數(shù)億美元,而隨桂反的是計算機(jī)模型卻建議他們持有頭寸。重要的是要明白,雖然1998年稱之為“計算機(jī)模型”,但我們今天稱之為機(jī)器學(xué)習(xí)模型或2011年,在金融危機(jī)和“大衰退”之后,美國聯(lián)邦儲備委員會發(fā)布了更為模型風(fēng)險管理指南SR11-7位和應(yīng)用價值。在SR11-7中,模型的重要性,因為根據(jù)不正確或誤用的模型做出的決策中會產(chǎn)生不利后果(包括財務(wù)損失)。金融機(jī)構(gòu)必須具備有效的模型風(fēng)驗管理框架,一個有效的模型風(fēng)險以確保模型開發(fā)、實施、使用和有效驗證的魯棒性。另一個例子是2012年令騎士資本(KnightCapital)集團(tuán)損失4.4億美元的交頻率極高。一般來說,HFT在交易日結(jié)束時不會持有股票。2012年8月1日,票,由此擾亂了148家公司的價格。結(jié)果,騎士資本集團(tuán)在短短45分鐘內(nèi)就蒙受了巨大損失(股市損失4.4億美元)。由于這個DevOps問題,該公司于2012年12月被收購,這違反了SR11-7的“實施和使用”預(yù)期。該并購于2013年7月完成。除了人工智能在銀行業(yè)的產(chǎn)品應(yīng)用外,美國機(jī)構(gòu)還將模型用于欺詐檢測和遵守《銀行保密法》[87]和《美國愛國者法案》[88]。這些模型可以識別和評估客戶的私人交易數(shù)據(jù),并報告潛在的可疑活動。這些系統(tǒng)和反饋的結(jié)果是美國政府反恐計劃的重要工具。不符合SR11-7模型的預(yù)期會導(dǎo)致較差的合規(guī)評級和嚴(yán)格的監(jiān)管行動,包括經(jīng)濟(jì)罰款/處罰和制裁,以及限制規(guī)模擴(kuò)大。歐洲中央銀行(ECB)于2024年2月發(fā)布了經(jīng)過修訂的《內(nèi)部模型指南》。與美國法規(guī)SR11-7類似,該指南規(guī)定了歐洲央行期望銀行如何使用內(nèi)部模型的透明度[89]。它涵蓋了一般主體、信用風(fēng)險、市場風(fēng)險技對手信用風(fēng)險。銀行可以使用內(nèi)部模型來計算風(fēng)險加權(quán)資食而確定其最低監(jiān)管資本要求。歐洲央行的修訂納入了與氣候相關(guān)的風(fēng)險并細(xì)規(guī)定了以下方面的新要求:●納入與氣候有關(guān)的風(fēng)險;的指南考慮了與氣候相關(guān)的風(fēng)險,反映了這些因素在風(fēng)險評估中日益重鄰的地位?!襁`約的通用定義拾南有助于所有銀行采用共同的違約定義,確保整個行業(yè)的一致性。●大規(guī)模處置的處理:該指南對“大規(guī)模處置”(指不良貸款的批量出售)提供了標(biāo)準(zhǔn)化的處理方法?!窠灰踪~簿頭寸違約風(fēng)險的計量:更新后的“市場風(fēng)險章節(jié)”詳細(xì)介紹了如何衡量交易賬簿頭寸的違約風(fēng)險?!耜P(guān)于交易對手信用風(fēng)險的說明:修訂后的指南對交易對手信用風(fēng)險(即交易對手可能違約的風(fēng)險)進(jìn)行了說明?!窕貧w標(biāo)準(zhǔn)化方法:摒棄復(fù)雜的內(nèi)部模型。對于亞洲銀行來說,并沒有像SR11-7或歐洲央行指南那樣的特定模型風(fēng)險管理指南,但模型風(fēng)險管理的做法已從美國傳到歐洲,最近又傳到了亞洲銀行。模型風(fēng)險管理(MRM)職能的范圍正在不斷擴(kuò)大,銀行對模型庫存的看法也在不斷拓寬,已經(jīng)超越了監(jiān)管和風(fēng)險相關(guān)的預(yù)測方法。它們還通過加強(qiáng)每個步驟的框數(shù)據(jù)安全標(biāo)準(zhǔn)(DSS)是一項全球信息安全標(biāo)準(zhǔn),旨在通過加強(qiáng)信用卡數(shù)據(jù)的控制和安全來防止欺詐。任何存儲、處理或傳輸支付和持卡人數(shù)據(jù)的組織都必須遵在線交易時能與發(fā)卡機(jī)構(gòu)進(jìn)行身份驗證。由于在線交易和智能手機(jī)的使用,PCI3DS變負(fù)起來返重要。這些數(shù)據(jù)包括個人身份信息(PII)、持卡人數(shù)據(jù)(CHD)和其他財務(wù)數(shù)據(jù)。PCIDSS和PCI3DS并不涉及人工智能條款。此外,不涉及交,的銀行應(yīng)用程序也不需要遵守這些PCI標(biāo)準(zhǔn)。因此,涉及的人工智能是態(tài)須遵守PCI標(biāo)準(zhǔn),取決于使用案例是否包含交易數(shù)據(jù)。提供人工智能的區(qū)包需要根據(jù)這些標(biāo)準(zhǔn)進(jìn)行認(rèn)證。如下圖所(2023年3月和2024年1月)技術(shù)和標(biāo)準(zhǔn)。醫(yī)療保健/制藥/醫(yī)療技術(shù)領(lǐng)域的人工智能既有潛力風(fēng)險。在這個受到高度(但非全球性)監(jiān)管的行業(yè)中,區(qū)分ML(機(jī)器和GenAl(生成式人全性,而醫(yī)療保健領(lǐng)域的GenAl會與不同的秒相關(guān)者互動,并在可靠性(和可解釋性)、安全性、隱私以及防止誤用和成或故意濫用的措施等方面帶來重大挑智能,將會帶來巨大的利益。探索醫(yī)療保健領(lǐng)域的可信賴人工智能系統(tǒng)在這個領(lǐng)域有大量特定國家的)法規(guī)、全球標(biāo)準(zhǔn)和全行業(yè)指導(dǎo)手冊,有關(guān)少和/或降低相關(guān)風(fēng)險。給出的相關(guān)定義包括可解釋性、可靠性、安全性、隱私文獻(xiàn)脫穎而出:世界衛(wèi)生組織(WHO)出版了一本非常全面的書籍世衛(wèi)組織:●人類權(quán)威的代理和堅拉不●以用戶為中心:透明度綜合清單●有益性和預(yù)期用途(包括負(fù)責(zé)任的使用、語境智能)●人的能動性以及人的權(quán)威和監(jiān)督的持久性●可靠性、問責(zé)制和責(zé)任●績效(包括改進(jìn)、定期審查、審計)●透明度(包括可解釋性、可解讀性)●多樣性、公平、無障礙(包括合乎道德的使用)●技術(shù)魯棒性、韌性和安全性(包括風(fēng)險評估、基礎(chǔ)設(shè)施能力、數(shù)據(jù)管理和治理、對抗測試、審計)醫(yī)療文獻(xiàn)的結(jié)論來自各方的觀點不一,也并非所有框架都包含以要求。但有趣的是,只有世界衛(wèi)生組織的出版物提到了要負(fù)責(zé)任和熟年的使用人工智能系統(tǒng)。這些出版物都沒有考慮到人類有責(zé)任了解模型的預(yù)期年途,比如它的優(yōu)勢、局限性和制約因素,甚至沒有考慮到從系統(tǒng)中獲取最住紡果這一主題。而用直覺來處理智能應(yīng)用程序可能比提供手冊更具挑戰(zhàn)前,免責(zé)聲明正在取代指導(dǎo)手冊)。同樣,只有世界衛(wèi)生組織提到了題,這與人工智能應(yīng)用密切相關(guān)。注意:只有世衛(wèi)組織和文章《在醫(yī)僅健及其他領(lǐng)域利用人工智能力量的倫理框架》特別針對醫(yī)療保健領(lǐng)域。定爾皮峽出,人工智能在醫(yī)療保健領(lǐng)域的應(yīng)用預(yù)計將通過更多的審查進(jìn)行驗證。在上述出版物中,可持續(xù)性只被提到過一次。令人驚訝的是,人工智能應(yīng)用在各行各業(yè)和各地區(qū)層出不窮,可持續(xù)性問題也在多個框架中得到討論。這反映出,人工智能在醫(yī)療保健領(lǐng)域的投資有望超過其(環(huán)境)成本。醫(yī)療保健中的偏見為了避免某些偏見,有些數(shù)據(jù)必須去個性化。例如,種族可能會導(dǎo)致數(shù)據(jù)集其進(jìn)行有目的的評估非常重要。偏差有不同的方面,如數(shù)據(jù)驅(qū)動偏差、系統(tǒng)偏差、概括偏差和人為偏差。通過開發(fā)和使用可解釋人工智能(XAI)[2],可以在生物產(chǎn)品[100],以及改善直接患者護(hù)理(改善醫(yī)療)、間接患者護(hù)理(改善醫(yī)院工作流程)和居家護(hù)理(可穿戴設(shè)備和傳感器可評估和預(yù)測患者需求)[101]。本部分的目標(biāo)是建立一個新穎的框架,以應(yīng)對人工智能質(zhì)量評級方面的挑戰(zhàn)和優(yōu)先事項,從而使人工智能系統(tǒng)面向未來。進(jìn)化在選擇性能特征和保持生存能力和政府監(jiān)督人工智能發(fā)展的重要性。本部分首先將生物進(jìn)化與人工智能的發(fā)展進(jìn)行比較,重點關(guān)注韌性,然后揭示人類智能(HI)與人工智能(AI)之間的差異,最后從心理學(xué)角度審視韌性,實施和衡量韌性。在生物進(jìn)化過程中,新的特征(突變個要經(jīng)過性能(適應(yīng)特定任務(wù))和韌性(隨著時間的推移持續(xù)存在并具生存)的檢驗。長期保持優(yōu)勢的生物在進(jìn)化過程中會受到內(nèi)在保護(hù)人起來可能有悖常理,但從整體角度來看,通過不同的視角(雄性/雌性步上能恢復(fù)力)進(jìn)行選擇會使系統(tǒng)更有能力保持其功同樣,人工智能的性能涉及人工智能在預(yù)定義環(huán)境下的輸出,而人工智能的韌性則包括泛化(避免過度擬合)和對新任務(wù)的適應(yīng)性。以市場為導(dǎo)向的行業(yè)可能會忽視任何不能帶來收入的東西,而監(jiān)管機(jī)構(gòu)的任務(wù)則是規(guī)范和監(jiān)督人工智能技術(shù)的安全性,進(jìn)而提高其適應(yīng)性。隨著人工智能應(yīng)用的進(jìn)一步發(fā)展,更多可在部署后持續(xù)學(xué)習(xí)的系統(tǒng)將占領(lǐng)市場。這種動態(tài)系統(tǒng)所需的人工智能韌性遠(yuǎn)遠(yuǎn)超過靜態(tài)系統(tǒng)。人工智能的韌性是一個復(fù)雜的特征,這一點可能會因為對其誘人性能的十足敬畏而被忽視。因此,有必要進(jìn)行監(jiān)管干預(yù),以平衡創(chuàng)新與監(jiān)管。3.2人工智能系統(tǒng)的多樣性和韌性多樣性是大自然解決問題的答案。因此,最重要的是,人工智能的韌性是強(qiáng)制性的,也是規(guī)范性的,必須鼓勵和獎勵個性化的獨特方法。只有多樣化的人工智能技術(shù)和可靠但個性化的人工智能韌性解決方案才能增強(qiáng)全局安全?!白匀唤缟嫦聛淼?,既不是四肢最強(qiáng)壯的,也不是頭腦最聰明的,而是有能力適應(yīng)變化的物種?!边@句話被誤認(rèn)為是達(dá)爾文說的,但從人工智能系統(tǒng)的角度來看,它仍然是正確的。對生存起貢獻(xiàn)的不是性能,而最終是人工智能的韌性。為最終用戶提供額外的保護(hù)措施,如推薦使用(手冊)、適當(dāng)?shù)呐嘤?xùn)、警告以及(如有可能)從技術(shù)上防止“標(biāo)簽外”使用,以增強(qiáng)人工智能固有的韌性,這一點至關(guān)重要,而且很容易提供,但卻經(jīng)常被忽視濟(jì)政策制定者、監(jiān)管機(jī)構(gòu)和政府必須在質(zhì)量評級中九考慮人工智能的適應(yīng)性,以降低風(fēng)險,確保安全和面向未來的人工智能集成制建標(biāo)準(zhǔn)化的韌性評估指標(biāo)至關(guān)重要。3.3對人工智能韌性進(jìn)行基準(zhǔn)測試的挑戰(zhàn)人工智能基準(zhǔn)測試已傳統(tǒng)性能基準(zhǔn)(“適合預(yù)期用途”)[104]),[105]的飽和狀態(tài),一些系充的體能已超過人類設(shè)定的基準(zhǔn)[106]。斯坦福大學(xué)的基礎(chǔ)模型研究中心使用HELM[107]在這一領(lǐng)域處于領(lǐng)先地位,該中心根據(jù)(目前)87個場景和50個指標(biāo)對模型進(jìn)行評估。重點是性能和預(yù)防傷害。通過評估模型在

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論