淺談機(jī)器學(xué)習(xí)公平性_第1頁(yè)
淺談機(jī)器學(xué)習(xí)公平性_第2頁(yè)
淺談機(jī)器學(xué)習(xí)公平性_第3頁(yè)
淺談機(jī)器學(xué)習(xí)公平性_第4頁(yè)
淺談機(jī)器學(xué)習(xí)公平性_第5頁(yè)
已閱讀5頁(yè),還剩5頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

當(dāng)前,機(jī)器學(xué)習(xí)在多個(gè)領(lǐng)域中發(fā)揮著越來越重要的作用,在金融、司法、醫(yī)療等公共領(lǐng)域,應(yīng)用機(jī)器學(xué)習(xí)的結(jié)論進(jìn)行輔助乃至自動(dòng)化決策已非個(gè)例。科技的迅猛發(fā)展在給人類帶來極大便利的同時(shí),也帶來了新的風(fēng)險(xiǎn),甚至?xí)l(fā)前所未有的倫理挑戰(zhàn),如美國(guó)的犯罪預(yù)測(cè)系統(tǒng)COMPAS存在歧視黑人的現(xiàn)象(預(yù)測(cè)結(jié)果對(duì)黑人的誤報(bào)率高于白人)、亞馬遜AI簡(jiǎn)歷篩選系統(tǒng)存在歧視女性的現(xiàn)象、meta廣告推薦算法涉嫌違反美國(guó)《公平住宅法案》(FairHousingAct,FHA)。在我國(guó),算法倫理問題已經(jīng)引起國(guó)家層面的關(guān)注。2022年3月,中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》,將人工智能作為科技倫理治理的重點(diǎn)領(lǐng)域之一。這是我國(guó)首個(gè)國(guó)家層面的科技倫理治理指導(dǎo)性文件,算法公平性也隨之成為業(yè)界重點(diǎn)關(guān)注的問題。本文將從多個(gè)角度闡述機(jī)器學(xué)習(xí)公平性的研究進(jìn)展:介紹公平性的度量指標(biāo),分析可能引起模型不公平的根源,梳理提升機(jī)器學(xué)習(xí)公平性建模中的關(guān)鍵措施,以期為讀者在加深對(duì)機(jī)器學(xué)習(xí)公平性倫理問題的認(rèn)知,避免應(yīng)用機(jī)器學(xué)習(xí)算法時(shí)引起不公平的道德倫理問題等方面提供參考。一、機(jī)器學(xué)習(xí)公平性的概述及公平性度量指標(biāo)機(jī)器學(xué)習(xí)公平性是機(jī)器學(xué)習(xí)領(lǐng)域的一個(gè)新興分支,主要研究如何通過解決或緩解“不公平”來增加模型的公平性,以及如何確保模型的輸出結(jié)果能夠讓不同的群體、個(gè)人都有平等的機(jī)會(huì)獲得利益。然而,受文化和環(huán)境的影響,人們對(duì)公平性的理解存在一定的主觀性。到目前為止,公平性尚未有統(tǒng)一的定義及度量指標(biāo)??偟膩碚f,公平性主要分為群體公平性和個(gè)體公平性兩類:群體公平性指標(biāo)側(cè)重于衡量決策(模型結(jié)果)對(duì)不同群體的偏見程度;個(gè)體公平性指標(biāo)主要側(cè)重于衡量決策對(duì)不同個(gè)體的偏見程度。本文將以二分類為例對(duì)公平性常用的定義及度量指標(biāo)(如圖1所示)進(jìn)行介紹。圖1

常見的模型公平性指標(biāo)及特點(diǎn)假設(shè)S為敏感信息的特征(如種族、性別、年齡、民族等),“S=1”表示該群體在社會(huì)中為“強(qiáng)勢(shì)群體”,較少受到歧視,“S≠1”表示該群體在某些方面為“弱勢(shì)群體”,存在潛在的受到歧視的風(fēng)險(xiǎn),如少數(shù)族裔、老年人、女性等。Y為模型的真實(shí)標(biāo)簽,?為模型預(yù)測(cè)的結(jié)果,?=1表示模型預(yù)測(cè)結(jié)果為正面(有利于該樣本個(gè)體的標(biāo)簽),P表示某條件下的概率。1.群體公平性指標(biāo)群體公平性指標(biāo)本質(zhì)上是比較算法在兩類或多類群體上的分類結(jié)果,通常群體是按性別、婚姻狀態(tài)、種族等敏感屬性進(jìn)行分群,下面對(duì)常用的群體公平性指標(biāo)分別進(jìn)行介紹。(1)不平等影響(DisparateImpact,DI)/群體均等(Demographicparity,DP)DI定義為模型對(duì)于兩個(gè)不同的群體預(yù)測(cè)為正類的概率比值,即:DP定義為將兩個(gè)不同群體預(yù)測(cè)為正類的預(yù)測(cè)概率差值,即:以上指標(biāo)存在兩個(gè)弊端:一是如果群體之間標(biāo)簽分布不同,一個(gè)完全準(zhǔn)確的模型在這兩種指標(biāo)下會(huì)被認(rèn)為是不公平的;二是為了滿足這兩種公平,兩個(gè)相似的樣本有可能僅僅因?yàn)椤八鶎偃后w”不同而獲得不同的預(yù)測(cè)結(jié)果。(2)補(bǔ)償幾率(Equalizedodds)該指標(biāo)由兩部分組成,即群體之間假陽性概率(false-positiverates)之差和群體之間真陽性概率(true-positiverates)之差,差值越小則認(rèn)為模型越公平,可以表示為:(3)機(jī)會(huì)均等(EqualOpportunity)機(jī)會(huì)均等定義為不同群體的真陽性概率之差,指標(biāo)越小代表越公平,可描述為:在指標(biāo)“補(bǔ)償幾率”和“機(jī)會(huì)均等”的定義下,完全準(zhǔn)確的模型能夠表現(xiàn)的較為公平,但指標(biāo)計(jì)算使用到了真實(shí)標(biāo)簽Y,所以需要滿足“樣本足夠有代表性并且不包含人為偏見”的假設(shè)。2.個(gè)體公平性指標(biāo)個(gè)體公平性是衡量決策對(duì)不同個(gè)體的偏見程度。(1)個(gè)體公平性指標(biāo)個(gè)體公平性指標(biāo)是指對(duì)于兩個(gè)個(gè)體,如果非敏感信息特征相似,則模型應(yīng)給出相似的預(yù)測(cè)結(jié)果。具體來說,以上二分類問題中不同群體中的兩個(gè)個(gè)體i和j,假設(shè)X為非敏感信息,S為敏感信息,d(i,j)為兩個(gè)個(gè)體的相似性,個(gè)體公平可以描述為:該指標(biāo)在計(jì)算時(shí)綜合考慮了敏感信息之外的屬性信息來計(jì)算相似性,然而,對(duì)于如何定義個(gè)體相似性仍是一個(gè)有待解決的難題。(2)反事實(shí)公平性指標(biāo)反事實(shí)公平性是指如果一個(gè)決策與敏感屬性不同的反事實(shí)世界中采取的決策一致,那么這個(gè)決策對(duì)于個(gè)體而言是公平的,是一種基于因果推斷的公平性定義,但考慮到多個(gè)因素的因果干涉,反事實(shí)公平性的應(yīng)用面臨著復(fù)雜的挑戰(zhàn)。二、引起機(jī)器學(xué)習(xí)模型不公平的潛在因素模型不公平性的來源是多種多樣的,不同的研究對(duì)其分類各不相同。按照機(jī)器學(xué)習(xí)的生命周期可把引起模型不公平的因素歸為四類:數(shù)據(jù)偏差、算法偏差、評(píng)估偏差和部署偏差(如圖2所示)。圖2

引起模型不公平的潛在因素?cái)?shù)據(jù)偏差主要包括收集數(shù)據(jù)過程中的測(cè)量偏差(MeasuringBias)、蘊(yùn)含社會(huì)文化和習(xí)俗的城建信息滲透到數(shù)據(jù)中產(chǎn)生的歷史偏差(HistoricalBias)以及訓(xùn)練數(shù)據(jù)沒有充分代表所有預(yù)測(cè)樣本空間帶來的表示偏差(RepresentationBias)。算法偏差主要指算法的優(yōu)化目標(biāo)帶來的不公平風(fēng)險(xiǎn),以及與敏感特征相關(guān)的“代理”特征帶來的不公平風(fēng)險(xiǎn)。算法總是會(huì)以減少訓(xùn)練過程中模型的輸出和真實(shí)標(biāo)簽的總體差異為優(yōu)化目標(biāo),當(dāng)數(shù)據(jù)類別不平衡時(shí),模型對(duì)多數(shù)群體的準(zhǔn)確率更高。敏感屬性的代理特征是指看似非敏感特征,但實(shí)際上與敏感特征相關(guān)聯(lián),因此算法在學(xué)習(xí)的過程中利用了敏感特征的信息。評(píng)估偏差包括由于算法評(píng)測(cè)的基準(zhǔn)數(shù)據(jù)不能完全代表目標(biāo)群體產(chǎn)生的偏見,以及由于評(píng)估指標(biāo)的不當(dāng)導(dǎo)致選取看似公平而實(shí)際并不公平的模型所產(chǎn)生的偏差。部署偏差是指部署應(yīng)用的場(chǎng)景與訓(xùn)練階段場(chǎng)景不匹配產(chǎn)生的偏差。機(jī)器學(xué)習(xí)模型在實(shí)際應(yīng)用過程中存在“數(shù)據(jù)—算法—人機(jī)交互”的動(dòng)態(tài)循環(huán),比如排名靠前的搜索結(jié)果總是更有機(jī)會(huì)被瀏覽點(diǎn)擊,如果模型結(jié)果有偏見,呈現(xiàn)給用戶的內(nèi)容也是有偏見的,收集到的用戶數(shù)據(jù)(如果把用戶點(diǎn)擊等同于用于認(rèn)可度)也是有偏見的,當(dāng)新的數(shù)據(jù)用于模型訓(xùn)練時(shí),會(huì)得到更加有偏見的模型。三、提升機(jī)器學(xué)習(xí)模型公平性的措施為了便于理解,本文從機(jī)器學(xué)習(xí)建模流程的維度把增加模型公平性的措施分為三類:預(yù)處理(數(shù)據(jù)處理),中間處理(模型訓(xùn)練)和后處理,如圖3所示。圖3提升機(jī)器學(xué)習(xí)模型公平性的措施1.預(yù)處理提升模型公平性的預(yù)處理措施主要包括:刪除特征,即刪除可能會(huì)引起歧視的敏感信息以及敏感信息相關(guān)的特征;更改數(shù)據(jù)集的標(biāo)簽,可以先使用原始的數(shù)據(jù)訓(xùn)練帶有不公平性的分類器,使用這個(gè)分類器對(duì)數(shù)據(jù)進(jìn)行分類,在每個(gè)群體中根據(jù)預(yù)測(cè)分類的置信度排序,更改置信度過低樣本的標(biāo)簽;更改權(quán)重,在訓(xùn)練的過程中,特征和標(biāo)簽會(huì)被賦予權(quán)重,可以通過調(diào)整特征的權(quán)重來減少模型的不公平性;公平表征,在一些深度學(xué)習(xí)任務(wù)中,會(huì)先使用模型提取數(shù)據(jù)的表征,然后將數(shù)據(jù)的表征輸入分類模型,訓(xùn)練分類器。與特征工程不同,提取數(shù)據(jù)表征一般使用模型自動(dòng)進(jìn)行,在這個(gè)過程中可以優(yōu)化算法使得學(xué)習(xí)出的表征既可以在下游分類器中用于區(qū)分不同的標(biāo)簽,同時(shí)又與敏感信息不相關(guān),這樣的研究稱為“公平表征”問題。2.中間處理中間處理是通過在模型訓(xùn)練過程中修改算法達(dá)到模型結(jié)果的公平性,建模中的措施主要包括:目標(biāo)函數(shù)加入懲罰項(xiàng)。在機(jī)器學(xué)習(xí)中,正則項(xiàng)是用來懲罰模型的復(fù)雜度,降低模型過擬合的風(fēng)險(xiǎn)。有研究認(rèn)為,參照正則項(xiàng)加入懲罰項(xiàng)用于保證分類模型的公平性,一種做法是將假陽率和假陰率的信息參照正則項(xiàng)的方式加入損失函數(shù)中,用來懲罰模型的不公平性。分類模型加入約束,通過在模型優(yōu)化過程中增加約束的方式平衡公平性和準(zhǔn)確性。在分類問題中,通常需要在特征空間中建立一個(gè)“決策邊界”,根據(jù)樣本特征向量到這個(gè)決策邊界之間的有符號(hào)距離判定樣本的分類標(biāo)簽。如果引入公平性的考量,則公平性可以定義為樣本的敏感屬性特征與樣本特征向量到?jīng)Q策邊界的有符號(hào)距離的協(xié)方差。通過這個(gè)協(xié)方差的閾值約束分類器損失函數(shù)的優(yōu)化過程,可以選擇在保證公平性的情況下最大化分類準(zhǔn)確率,也可以選擇在保證分類準(zhǔn)確率的情況下最大化公平性?;谔貦?quán)信息的學(xué)習(xí)。在訓(xùn)練階段,模型使用敏感信息(作為特權(quán)信息)特征加速模型的收斂來提升模型效果,而在預(yù)測(cè)階段則不使用敏感信息。3.后處理后處理是通過對(duì)訓(xùn)練后的模型預(yù)測(cè)數(shù)據(jù)進(jìn)行處理以消除模型結(jié)果的不公平性,可采取的措施包括:使用不同的閾值修正預(yù)測(cè)結(jié)果。分類模型常使用閾值來調(diào)節(jié)預(yù)測(cè)的結(jié)果,因此可以根據(jù)某些規(guī)則對(duì)不同的群體設(shè)置不同的閾值來消除模型不公平性。對(duì)不同的群體使用不同的分類器。在分類模型的訓(xùn)練過程中,損失函數(shù)用于懲罰與標(biāo)簽不一致的預(yù)測(cè)結(jié)果。在訓(xùn)練單個(gè)分類模型時(shí),如果訓(xùn)練集中的數(shù)據(jù)不平衡,數(shù)量較多的群體上的預(yù)測(cè)結(jié)果會(huì)更多的影響損失函數(shù)的優(yōu)化過程,如果對(duì)每個(gè)群體單獨(dú)訓(xùn)練一個(gè)分類器,將所有群體上分類器的損失函數(shù)聯(lián)合后進(jìn)行優(yōu)化,就可以避免由于群體間數(shù)據(jù)不平衡導(dǎo)致模型忽略弱勢(shì)群體的特征。以上三種策略各有優(yōu)缺點(diǎn)。預(yù)處理的方法較為簡(jiǎn)單,可以在大多數(shù)分類問題中使用,缺點(diǎn)是會(huì)降低模型的可解釋性。建模中的處理方式較為靈活,可以根據(jù)特定的情況調(diào)整,缺點(diǎn)則是較為復(fù)雜,并且不同的算法之間難以復(fù)用。后處理的方式和預(yù)處理一樣,也可以適用于大多數(shù)分類問題,但是這種方法可能會(huì)影響模型效果,而且在人為改動(dòng)模型輸出結(jié)果的情況下也有一定的倫理風(fēng)險(xiǎn)。具體應(yīng)該如何選擇這些方法,主要由能夠獲得多少完全準(zhǔn)確沒有偏見的標(biāo)簽數(shù)據(jù)、能使用多少敏感信息以及使用的公平性定義這三者共同決定。四、總結(jié)機(jī)器學(xué)習(xí)公平性已經(jīng)引起了學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。雖然公平性建模的研究已取得了一定的進(jìn)展,但是應(yīng)用模型公平性在當(dāng)前仍然存在以下難點(diǎn):一是權(quán)衡公平性和準(zhǔn)確率。建模過程加入公平性因素對(duì)模型會(huì)產(chǎn)生一定的約束,因此加入公平性考量的模型相比于不考慮公平性的模型,在準(zhǔn)確率上會(huì)有所下降。二是難以同時(shí)滿足不

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論