2025年人工智能與倫理專業(yè)考試試卷及答案_第1頁
2025年人工智能與倫理專業(yè)考試試卷及答案_第2頁
2025年人工智能與倫理專業(yè)考試試卷及答案_第3頁
2025年人工智能與倫理專業(yè)考試試卷及答案_第4頁
2025年人工智能與倫理專業(yè)考試試卷及答案_第5頁
已閱讀5頁,還剩11頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

2025年人工智能與倫理專業(yè)考試試卷及答案一、單項選擇題(每題2分,共20分。每題只有一個正確答案,請將正確選項填入括號內(nèi))1.2024年歐盟《人工智能法案》將“實時遠程生物識別系統(tǒng)”在公共場所的使用原則上歸類為()。A.最小風險B.有限風險C.高風險D.不可接受風險答案:D解析:法案第5條明確禁止在公共場所使用實時遠程生物識別系統(tǒng),除非出現(xiàn)極少數(shù)例外,故屬“不可接受風險”。2.在機器學習模型訓練階段,若因訓練數(shù)據(jù)分布偏移導致對某一族群的預測準確率顯著下降,這種現(xiàn)象在倫理審計報告中通常被稱為()。A.算法黑箱B.數(shù)據(jù)漂移C.代表性傷害D.模型投毒答案:C解析:代表性傷害(representationalharm)指系統(tǒng)輸出強化了對某群體的負面刻板印象或排斥,其根源常是數(shù)據(jù)分布偏移。3.根據(jù)2023年更新的IEEE7000?2021標準,針對“倫理驅動設計”的符合性評估,優(yōu)先要求企業(yè)建立()。A.數(shù)據(jù)出境安全評估B.算法備案制度C.倫理影響評估(EIA)D.模型可解釋性白皮書答案:C解析:IEEE7000?核心即要求在產(chǎn)品全生命周期嵌入EIA,而非單純備案或解釋。4.當自動駕駛汽車面臨“電車難題”式抉擇時,德國聯(lián)邦交通部2023年頒布的《自動化駕駛倫理準則》要求算法()。A.優(yōu)先保護車內(nèi)乘客B.不得基于年齡、性別進行權衡C.最小化財產(chǎn)損失D.依據(jù)保險額度決定優(yōu)先級答案:B解析:準則第4條明確禁止以人身特征作為權衡標準,體現(xiàn)絕對平等原則。5.在聯(lián)邦學習框架下,參與方利用差分隱私技術上傳梯度信息,其隱私預算ε的推薦上限為()。A.0.1B.1C.5D.10答案:B解析:蘋果與谷歌在公開報告中均將ε=1作為單次迭代可接受的隱私損失閾值,超過則重識別風險陡增。6.2024年1月,中國“生成式AI服務管理暫行辦法”要求提供具有輿論屬性的生成式服務時應完成的安全評估稱為()。A.算法安全評估B.網(wǎng)絡安全等保測評C.科技倫理審查D.數(shù)據(jù)安全風險評估答案:A解析:辦法第7條明確“具有輿論屬性”的生成式服務須通過中央網(wǎng)信辦組織的算法安全評估。7.在AI醫(yī)療影像診斷場景下,若模型AUC達0.95,但對黑人患者召回率僅0.42,該情形最符合()。A.技術可解釋性不足B.算法歧視C.模型過擬合D.數(shù)據(jù)泄露答案:B解析:性能在不同族群間顯著失衡,構成直接歧視。8.關于“可解釋人工智能”(XAI),下列技術中屬于“內(nèi)在可解釋”方法的是()。A.LIMEB.SHAPC.決策樹D.GradCAM答案:C解析:決策樹自身結構即規(guī)則集,無需后驗近似,故為內(nèi)在可解釋。9.2023年10月,聯(lián)合國教科文組織(UNESCO)發(fā)布的《人工智能倫理建議書》強調的核心監(jiān)管模式是()。A.行業(yè)自律B.硬性禁令+風險評估C.事后追責D.市場自由競爭答案:B解析:建議書提出“禁令+風險分級”雙層框架,影響歐盟法案思路。10.若某城市使用AI系統(tǒng)評估教師績效并決定續(xù)約,該系統(tǒng)未向教師公開評分邏輯,在美國可能違反()。A.COPPAB.FERPAC.EEOCD.ADA答案:B解析:FERPA賦予學生與教師查閱教育記錄的權利,含算法評分。二、多項選擇題(每題3分,共15分。每題有兩個或以上正確答案,多選、少選、錯選均不得分)11.以下哪些行為可能觸發(fā)歐盟《人工智能法案》的高風險系統(tǒng)合規(guī)義務()。A.使用AI進行招聘初篩B.利用AI評估銀行貸款違約概率C.在手游中通過AI推薦皮膚D.采用AI輔助判決量刑答案:A、B、D解析:招聘、信貸、司法均列入附件三高風險清單,游戲皮膚推薦不在其列。12.關于“合成數(shù)據(jù)”在隱私保護中的作用,下列說法正確的是()。A.可消除原始數(shù)據(jù)中的個人可識別信息B.一定保證無法推斷原始個體C.可緩解數(shù)據(jù)稀缺問題D.需進行隱私審計以防模型記憶答案:A、C、D解析:合成數(shù)據(jù)仍可能通過成員推理攻擊泄露信息,故“一定保證”錯誤。13.在AI倫理治理中,實施“算法審計”需要重點關注()。A.訓練數(shù)據(jù)來源合法性B.模型更新頻率C.商業(yè)競爭對手數(shù)量D.輸出對弱勢群體的影響答案:A、B、D解析:競爭對手數(shù)量與倫理審計無直接關聯(lián)。14.以下哪些情形可能構成“自動化決策拒絕權”的例外()。A.合同履行必要B.法律授權C.用戶明示同意D.企業(yè)營銷優(yōu)化答案:A、B、C解析:GDPR第22條明確三種例外,營銷優(yōu)化不在其中。15.在生成式大模型內(nèi)容安全過濾中,可采用的技術包括()。A.強化學習從人類反饋(RLHF)B.關鍵詞黑名單C.毒性分類器D.聯(lián)邦參數(shù)聚合答案:A、B、C解析:聯(lián)邦聚合是隱私技術,不直接用于內(nèi)容過濾。三、判斷題(每題2分,共10分。正確打“√”,錯誤打“×”)16.中國《個人信息保護法》規(guī)定,個人信息處理者利用個人信息進行自動化決策時,必須同時提供“不針對其個人特征的選項”,否則即屬違法。答案:√解析:見個保法第24條。17.算法公平性指標“EqualizedOdds”要求真正率與假正率在不同族群間相等,因此一定會犧牲整體準確率。答案:×解析:在某些分布下可同時滿足,非必然犧牲。18.聯(lián)邦學習中,參與方上傳模型梯度而非原始數(shù)據(jù),因此天然滿足GDPR的“數(shù)據(jù)最小化”原則。答案:×解析:梯度仍可泄露原始數(shù)據(jù),需疊加差分隱私或安全聚合。19.2024年IEEE發(fā)布的《人工智能系統(tǒng)倫理設計操作手冊》建議,對高風險系統(tǒng)應建立“倫理紅隊”進行對抗性測試。答案:√解析:手冊第8.3條提出倫理紅隊機制。20.基于深度強化學習的股票交易系統(tǒng)若造成市場異常波動,開發(fā)者可以“算法中立”為由主張完全免責。答案:×解析:歐盟MiCA法規(guī)及美國SEC均強調開發(fā)者對算法失控負最終責任。四、簡答題(每題10分,共30分)21.結合“差別性隱私預算分配”策略,說明如何在跨部門醫(yī)療數(shù)據(jù)共享中平衡科研價值與患者隱私。答案要點:1)定義敏感級別:對直接標識符、準標識符、臨床變量設置不同ε;2)動態(tài)預算:依據(jù)數(shù)據(jù)稀缺性與研究影響力分配,如罕見病分配更高ε;3)層級同意:允許患者選擇加入高ε研究或僅低ε統(tǒng)計;4)審計追蹤:每次查詢記錄剩余預算,超出即拒絕;5)補償機制:對高噪聲結果采用安全多方計算二次驗證,確保科研結論穩(wěn)健。評分標準:策略完整5分,案例結合3分,隱私與價值平衡論述2分。22.描述“模型卡”(ModelCard)在生成式大模型治理中的關鍵字段,并說明如何借助該卡片實現(xiàn)算法透明。答案要點:1)模型細節(jié):架構、參數(shù)量、訓練數(shù)據(jù)規(guī)模與來源合法性;2)適用場景與限制:明確禁止醫(yī)療診斷、法律建議等高誤用風險場景;3)性能指標:多語言毒性率、幻覺率、偏見評分(BBQ、RealToxicityPrompts);4)倫理評估:碳排放、勞工標注條件、數(shù)據(jù)許可;5)更新日志:版本差異、補丁說明;6)用戶反饋通道:持續(xù)收集下游誤用案例,實現(xiàn)動態(tài)透明。評分標準:字段齊全6分,透明機制論述4分。23.2024年某社交平臺部署“AI虛擬陪伴”功能,被曝對未成年人輸出自傷誘導內(nèi)容。請從“監(jiān)管—平臺—家長”三方視角提出治理閉環(huán)。答案要點:監(jiān)管:參照《未成年人網(wǎng)絡保護條例》要求平臺上線前完成青少年模式算法備案,建立24h投訴熱線;平臺:a)訓練數(shù)據(jù)清洗:過濾18+文本,采用ConstitutionalAI強化安全提示;b)實時過濾:集成輕量級毒性檢測小模型,端側推理延遲<100ms;c)年齡驗證:引入零知識證明技術,確保不上傳原始身份證;家長:提供家長端“AI陪伴日志”可視化,支持一鍵凍結;閉環(huán):監(jiān)管對平臺罰款與下架并重,平臺每季度公開安全報告,家長參與眾測,形成迭代。評分標準:三方措施各3分,閉環(huán)邏輯1分。五、案例分析題(25分)24.材料:2025年3月,東南亞某國政府與私企合作推出“AI預測性警務”系統(tǒng),通過融合社交媒體情緒、歷史案件、天氣數(shù)據(jù),輸出“熱點網(wǎng)格”指導巡邏。上線六個月后,警方在熱點區(qū)域逮捕率提升38%,但民間組織指控該系統(tǒng)過度集中于貧民區(qū),導致少數(shù)族裔被盤查率上漲210%。聯(lián)合國人權專員辦公室介入調查,發(fā)現(xiàn):1)訓練數(shù)據(jù)使用2010—2022年案件記錄,其間警方本身存在種族偏見執(zhí)法;2)模型采用XGBoost,特征重要性前三名分別為“膚色標簽”“街區(qū)貧困率”“過往盤查次數(shù)”;3)政府以“國家安全”為由拒絕公開模型參數(shù);4)企業(yè)聲稱“僅提供技術”,不承擔執(zhí)法后果。問題:(1)指出該系統(tǒng)存在的三類倫理風險(9分);(2)從“技術—制度—社會”三維度提出糾偏方案(10分);(3)若你是獨立審計機構,請設計一項可驗證的公平性量化指標,并說明如何獲取groundtruth(6分)。參考答案:(1)a)歧視強化:歷史偏見被算法固化,對少數(shù)族裔形成系統(tǒng)性差別對待;b)不透明與問責缺失:黑箱決策拒絕公開,阻礙司法救濟;c)隱私與言論寒蟬效應:社交媒體情緒監(jiān)控侵犯公民表達自由。(2)技術:1)重加權訓練:對少數(shù)族裔樣本權重下調,引入公平約束(EqualOpportunity);2)特征移除:刪除膚色、種族代理變量,采用“犯罪環(huán)境”替代“犯罪人”特征;3)可解釋模塊:輸出時提供“風險原因摘要”,供警員書面記錄。制度:1)立法要求“公共算法登記”,高風險警務模型須通過議會聽證;2)建立獨立算法監(jiān)督署,擁有源代碼托管與紅隊測試權;3)引入“算法傷害保險”,由政府與企業(yè)按比例賠付誤執(zhí)法受害者。社會:1)社區(qū)共評:每季度召開“熱點網(wǎng)格”公開會,居民可質疑巡邏策略;2)數(shù)據(jù)捐贈:允許市民自愿提交匿名位置數(shù)據(jù),校正采樣偏差;3)民間科技組織參與白盒測試,發(fā)布公平性排行榜。(3)指標:盤查率差異比(StopRateRatio,SRR)=少數(shù)族裔盤查率

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論