2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案_第1頁(yè)
2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案_第2頁(yè)
2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案_第3頁(yè)
2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案_第4頁(yè)
2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案_第5頁(yè)
已閱讀5頁(yè),還剩13頁(yè)未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

2025年科技行業(yè)人工智能倫理認(rèn)證算法公平種族偏見(jiàn)消除倫理考核試卷及答案一、單選題(每題2分,共20分)1.2024年,美國(guó)某大型招聘平臺(tái)因算法推薦系統(tǒng)對(duì)非裔候選人簡(jiǎn)歷的通過(guò)率顯著低于白人候選而被集體訴訟。事后審計(jì)發(fā)現(xiàn),訓(xùn)練數(shù)據(jù)集中“歷史晉升記錄”字段權(quán)重過(guò)高。該案例最能直接映射下列哪一項(xiàng)算法公平性原則?A.個(gè)體公平性(IndividualFairness)B.群體公平性(GroupFairness)C.反事實(shí)公平性(CounterfactualFairness)D.因果公平性(CausalFairness)答案:B2.在歐盟《人工智能法案》最終文本(2024/12/定稿版)中,被劃入“高風(fēng)險(xiǎn)”用途的算法系統(tǒng)若用于公共部門(mén)招聘,必須額外提交哪一種技術(shù)文檔?A.數(shù)據(jù)最小化報(bào)告(DMR)B.基本權(quán)利影響評(píng)估(FRIA)C.算法偏差緩解日志(ABML)D.模型可解釋性摘要(MIS)答案:B3.某醫(yī)療影像AI在拉丁裔患者上的假陰性率比白人患者高3.2%,開(kāi)發(fā)團(tuán)隊(duì)擬采用“重加權(quán)+再采樣”組合策略。下列哪項(xiàng)操作最可能引入“標(biāo)簽泄露”風(fēng)險(xiǎn)?A.按種族分層后再對(duì)負(fù)樣本進(jìn)行過(guò)采樣B.在重加權(quán)前用患者ID做分組交叉驗(yàn)證C.用種族作為特征輸入到最終模型D.在重加權(quán)后用種族作為分層變量劃分測(cè)試集答案:D4.2025年3月,IEEE發(fā)布《算法偏見(jiàn)審計(jì)標(biāo)準(zhǔn)》P70032025,首次把“社會(huì)結(jié)構(gòu)因果圖”納入審計(jì)流程。該圖主要解決哪類偏差?A.測(cè)量偏差(MeasurementBias)B.表征偏差(RepresentationBias)C.歷史遺留偏差(HistoricalBias)D.評(píng)估偏差(EvaluationBias)答案:C5.在差分隱私機(jī)制下,若要保證對(duì)“種族”敏感屬性的隱私預(yù)算ε≤0.1,同時(shí)發(fā)布群體公平性指標(biāo),下列哪種做法最符合“合成數(shù)據(jù)+后處理”范式?A.先對(duì)原始數(shù)據(jù)加噪,再計(jì)算EqualOpportunity差值B.先計(jì)算公平指標(biāo),再對(duì)指標(biāo)結(jié)果加噪C.先生成滿足ε=0.1的合成數(shù)據(jù),再在合成數(shù)據(jù)上計(jì)算指標(biāo)D.先訓(xùn)練隱私感知模型,再在模型輸出上計(jì)算指標(biāo)答案:C6.2024年,斯坦福大學(xué)發(fā)布的“AIAuditSandbox”要求上傳模型權(quán)重。該要求直接挑戰(zhàn)了下列哪一項(xiàng)法律權(quán)利?A.商業(yè)秘密B.數(shù)據(jù)主體訪問(wèn)權(quán)C.算法解釋權(quán)D.被遺忘權(quán)答案:A7.當(dāng)使用最優(yōu)傳輸(OptimalTransport)進(jìn)行公平矯正時(shí),若將“種族”作為敏感屬性,則耦合矩陣的構(gòu)造必須滿足:A.Wasserstein距離最小化且保持預(yù)測(cè)排序B.總變異距離最小化且保持基率一致C.耦合矩陣邊緣分布與目標(biāo)分布相等D.耦合矩陣行列式為1答案:C8.2025年1月,中國(guó)信通院發(fā)布《人臉識(shí)別倫理操作指引》,明確禁止在下列哪種場(chǎng)景使用種族作為顯式特征?A.機(jī)場(chǎng)安檢通道比對(duì)B.少數(shù)民族語(yǔ)言翻譯APP登錄C.歷史博物館游客流量統(tǒng)計(jì)D.城市地鐵“刷臉”優(yōu)惠認(rèn)證答案:D9.在多任務(wù)學(xué)習(xí)框架下,若引入“種族”作為輔助任務(wù)標(biāo)簽,下列哪種正則化方式最能抑制主任務(wù)對(duì)種族的依賴?A.梯度反轉(zhuǎn)層(GradientReversalLayer)B.L2權(quán)重衰減C.DropoutD.BatchNorm答案:A10.2024年,GoogleDeepMind在《Nature》發(fā)表的“BayesianBiasScanner”提出用“局部全局先驗(yàn)”檢測(cè)子組偏差。該方法的核心假設(shè)是:A.局部先驗(yàn)服從Dirichlet分布B.全局先驗(yàn)與局部先驗(yàn)共軛C.偏差方向在局部與全局間存在先驗(yàn)差異D.后驗(yàn)分布的KL散度小于0.05答案:C二、多選題(每題3分,共15分,多選少選均不得分)11.下列哪些技術(shù)組合可同時(shí)滿足“群體公平性”與“個(gè)體公平性”的近似保證?A.公平感知正則化+個(gè)體相似度度量B.對(duì)抗性去偏+最優(yōu)傳輸矯正C.因果推斷前門(mén)調(diào)整+反事實(shí)公平D.后處理閾值調(diào)整+CalibratedEqualOdds答案:A、B12.2025年ISO/IEC42001:2025對(duì)“AI倫理管理體系”提出PDCA循環(huán),其中“C(Check)”階段必須包含:A.利益相關(guān)方投訴統(tǒng)計(jì)B.算法性能漂移監(jiān)測(cè)C.偏差事件根因分析D.模型可解釋性更新記錄答案:A、B、C13.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,為了消除種族偏差,下列哪些做法可能違反GDPR“目的限制”原則?A.客戶端上傳本地種族分布直方圖B.服務(wù)器端聚合后反向推斷個(gè)體種族C.使用安全多方計(jì)算比較種族基率D.在本地計(jì)算公平指標(biāo)后僅上傳加密指標(biāo)答案:A、B14.下列哪些指標(biāo)屬于“校準(zhǔn)性”范疇而非“公平性”范疇?A.BrierScoreB.ExpectedCalibrationErrorC.DemographicParityD.CalibrationPlot斜率答案:A、B、D15.2024年MIT研究提出“BiasinContext”評(píng)估框架,指出同一模型在不同語(yǔ)境下對(duì)“非裔”一詞的毒性評(píng)分差異顯著。該框架強(qiáng)調(diào):A.上下文嵌入余弦相似度B.種族術(shù)語(yǔ)的替換敏感性C.交叉屬性(種族×性別)交互D.動(dòng)態(tài)提示模板采樣答案:B、C、D三、判斷題(每題1分,共10分,正確打“√”,錯(cuò)誤打“×”)16.根據(jù)2025年生效的《紐約市LocalLaw144》修訂版,若招聘算法在“種族”上滿足EqualizedOdds,即可豁免第三方偏見(jiàn)審計(jì)。答案:×17.使用合成數(shù)據(jù)訓(xùn)練得到的模型一定不存在種族偏見(jiàn),因?yàn)樵济舾袑傩砸驯粍h除。答案:×18.在因果圖里,若“種族”到“預(yù)測(cè)”存在被“資格”完全中介的路徑,則控制“資格”即可阻斷該路徑的歧視效應(yīng)。答案:√19.后處理閾值調(diào)整方法無(wú)法在不降低整體準(zhǔn)確率的情況下同時(shí)滿足DemographicParity與EqualOpportunity。答案:√20.2025年IEEEP7003首次將“算法偏見(jiàn)保險(xiǎn)”納入審計(jì)報(bào)告可選附件。答案:√21.對(duì)于深度學(xué)習(xí)模型,輸入層刪除種族特征即可保證模型不學(xué)習(xí)種族相關(guān)信號(hào)。答案:×22.在聯(lián)邦學(xué)習(xí)中,使用安全聚合協(xié)議后,服務(wù)器無(wú)法推斷任何客戶端的種族分布。答案:×23.若一個(gè)模型在AUC指標(biāo)上表現(xiàn)優(yōu)異,則其公平性指標(biāo)必然優(yōu)于隨機(jī)分類器。答案:×24.根據(jù)《人工智能法案》第52條,公共部門(mén)使用的情緒識(shí)別系統(tǒng)必須向用戶披露算法邏輯摘要。答案:√25.2024年,OpenAI發(fā)布的“FairnessGym”支持在強(qiáng)化學(xué)習(xí)環(huán)境下的偏見(jiàn)模擬。答案:√四、填空題(每空2分,共20分)26.2025年,歐盟AI法案把“公共部門(mén)信用評(píng)分系統(tǒng)”劃入________風(fēng)險(xiǎn)等級(jí),必須完成________評(píng)估后方可上線。答案:高風(fēng)險(xiǎn);基本權(quán)利影響(FRIA)27.在差分隱私公平性審計(jì)中,若隱私預(yù)算ε=0.5,則發(fā)布DemographicParity差值時(shí)需添加尺度參數(shù)為_(kāi)_______的拉普拉斯噪聲。答案:Δf/ε(其中Δf為敏感度)28.若使用“EqualOpportunity”作為公平指標(biāo),其數(shù)學(xué)表達(dá)式為_(kāi)_______。答案:TPR_{A}=TPR_{B}(A、B為不同種族群體)29.2024年,斯坦福大學(xué)提出的“CausalXAI”框架使用________算法估計(jì)種族對(duì)模型預(yù)測(cè)的因果效應(yīng)。答案:雙重機(jī)器學(xué)習(xí)(DoubleMachineLearning)30.在聯(lián)邦學(xué)習(xí)場(chǎng)景下,為了消除種族偏差,常用的梯度壓縮方法為_(kāi)_______,其可保證上傳梯度不含敏感屬性明文。答案:SecureAggregation31.2025年,中國(guó)信通院發(fā)布《生成式AI倫理要求》,明確禁止基于________屬性生成歧視性內(nèi)容。答案:種族32.當(dāng)使用最優(yōu)傳輸進(jìn)行公平矯正時(shí),耦合矩陣π需滿足邊緣約束:π1=________,π^T1=________。答案:源分布;目標(biāo)分布33.2024年,MIT研究指出,GPT4在“非裔”與“白人”提示下的毒性評(píng)分差異可達(dá)________%,遠(yuǎn)超可接受閾值。答案:1834.根據(jù)ISO/IEC42001:2025,AI倫理管理體系的“P”階段必須輸出________文件,明確種族偏見(jiàn)風(fēng)險(xiǎn)等級(jí)。答案:倫理風(fēng)險(xiǎn)評(píng)估35.在“BiasinContext”框架中,提示模板采樣次數(shù)至少為_(kāi)_______次,以保證統(tǒng)計(jì)顯著性。答案:1000五、簡(jiǎn)答題(每題10分,共30分)36.結(jié)合2025年歐盟AI法案,闡述“高風(fēng)險(xiǎn)”招聘系統(tǒng)在種族偏見(jiàn)審計(jì)中必須提交的“基本權(quán)利影響評(píng)估(FRIA)”報(bào)告的核心要素,并說(shuō)明其與“數(shù)據(jù)保護(hù)影響評(píng)估(DPIA)”的區(qū)別。答案:(1)FRIA核心要素:a.系統(tǒng)功能與預(yù)期目的描述;b.潛在受影響人群(按種族細(xì)分);c.偏見(jiàn)風(fēng)險(xiǎn)識(shí)別與量化方法(含基線、指標(biāo)、閾值);d.風(fēng)險(xiǎn)緩解措施(技術(shù)+管理+培訓(xùn));e.利益相關(guān)方咨詢記錄(工會(huì)、NGO、少數(shù)族裔組織);f.后續(xù)監(jiān)測(cè)與申訴機(jī)制;g.高級(jí)管理層簽字與公開(kāi)聲明。(2)與DPIA區(qū)別:a.法律基礎(chǔ):FRIA源于AI法案第29條;DPIA源于GDPR第35條;b.關(guān)注焦點(diǎn):FRIA側(cè)重基本權(quán)利(非歧視、人性尊嚴(yán));DPIA側(cè)重隱私與個(gè)人數(shù)據(jù)保護(hù);c.觸發(fā)條件:FRIA針對(duì)高風(fēng)險(xiǎn)AI系統(tǒng);DPIA針對(duì)高風(fēng)險(xiǎn)數(shù)據(jù)處理;d.公開(kāi)性:FRIA摘要必須公開(kāi);DPIA通常僅對(duì)監(jiān)管機(jī)構(gòu)公開(kāi);e.審查主體:FRIA由市場(chǎng)監(jiān)督機(jī)構(gòu)審查;DPIA由數(shù)據(jù)保護(hù)機(jī)構(gòu)審查。37.請(qǐng)給出“因果公平性”與“反事實(shí)公平性”的數(shù)學(xué)定義,并用一個(gè)醫(yī)療貸款審批案例說(shuō)明二者在消除種族偏見(jiàn)時(shí)的實(shí)施差異。答案:(1)因果公平性:P(?=1|do(R=r),X=x)=P(?=1|do(R=r'),X=x),?r,r'即干預(yù)種族變量后,預(yù)測(cè)分布不變。(2)反事實(shí)公平性:P(?_{R←r}=1|R=r',X=x)=P(?=1|R=r',X=x)即個(gè)體在反事實(shí)世界(種族被設(shè)為r)下的預(yù)測(cè)概率等于其原始世界預(yù)測(cè)概率。(3)案例:某AI系統(tǒng)審批醫(yī)療貸款,敏感屬性種族R,資格Q為中介變量,健康需求H為協(xié)變量。因果公平:銀行通過(guò)前門(mén)調(diào)整控制Q,阻斷R→Q→?路徑,確保do(R)不影響?。反事實(shí)公平:銀行需估計(jì)每個(gè)申請(qǐng)人若種族改變后的反事實(shí)預(yù)測(cè),若反事實(shí)預(yù)測(cè)與原始預(yù)測(cè)差異大于閾值則拒絕。差異:因果公平關(guān)注群體級(jí)干預(yù)分布;反事實(shí)公平關(guān)注個(gè)體級(jí)反事實(shí)一致性;前者需因果圖可識(shí)別,后者需潛在結(jié)果模型。38.描述“聯(lián)邦學(xué)習(xí)+梯度反轉(zhuǎn)層”在消除種族偏見(jiàn)中的完整流程,并分析其通信開(kāi)銷與收斂性權(quán)衡。答案:(1)流程:Step1:本地?cái)?shù)據(jù)預(yù)處理,去除明文種族特征,保留代理特征;Step2:構(gòu)建多任務(wù)網(wǎng)絡(luò),主任務(wù)為目標(biāo)預(yù)測(cè),輔助任務(wù)為種族預(yù)測(cè);Step3:在主任務(wù)與輔助任務(wù)共享層間插入梯度反轉(zhuǎn)層(GRL),縮放系數(shù)λ隨輪次遞增;Step4:本地訓(xùn)練,計(jì)算主任務(wù)損失L_main與輔助任務(wù)損失L_aux,總損失L=L_main?λL_aux;Step5:上傳加密梯度(SecureAggregation),服務(wù)器聚合;Step6:服務(wù)器下發(fā)更新后權(quán)重;Step7:重復(fù)至收斂,本地驗(yàn)證公平指標(biāo)(EqualOpportunity差值<1%)。(2)通信開(kāi)銷:每輪需上傳全部權(quán)重梯度,與標(biāo)準(zhǔn)FedAvg相同;額外開(kāi)銷為輔助任務(wù)頭部參數(shù),可忽略。(3)收斂性權(quán)衡:λ過(guò)大導(dǎo)致主任務(wù)梯度被抑制,收斂速度下降2030%;λ過(guò)小則去偏效果不足;采用動(dòng)態(tài)λschedule(λ_t=λ_max·(t/T)^2)可在第T輪達(dá)到帕累托最優(yōu),實(shí)驗(yàn)顯示在NonIID種族分布下需增加約15%通信輪數(shù)。六、計(jì)算與建模題(共25分)39.某銀行信貸模型訓(xùn)練數(shù)據(jù)集含10000條樣本,其中種族A(非裔)2000條,種族B(白人)8000條。模型輸出違約概率s∈[0,1],閾值默認(rèn)0.5。給定:種族A:TP=240,F(xiàn)P=160,F(xiàn)N=360,TN=1240種族B:TP=1280,F(xiàn)P=320,F(xiàn)N=720,TN=5680(1)計(jì)算兩群體的TruePositiveRate(TPR)與FalsePositiveRate(FPR);(4分)(2)計(jì)算EqualOpportunity差值與AverageOddsDifference;(4分)(3)若采用后處理閾值調(diào)整,求滿足EqualOpportunity的最優(yōu)閾值對(duì)(t_A,t_B),使得整體批準(zhǔn)率下降不超過(guò)2個(gè)百分點(diǎn);(10分)(

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論