AI性別歧視有救,MIT研究人員給出減少AI預(yù)測(cè)偏差新方法
在社交媒體的應(yīng)用場(chǎng)景中,人工智能算法模型的偏差導(dǎo)致搜索結(jié)果或用戶體驗(yàn)不佳常常出現(xiàn),甚至可以說(shuō)是無(wú)法規(guī)避,如人們熟知的大數(shù)據(jù)殺熟等??梢灶A(yù)見(jiàn),當(dāng)AI應(yīng)用到醫(yī)療保健、自動(dòng)駕駛汽車、刑事司法或刑事處理等場(chǎng)景中時(shí),更多關(guān)乎生命、公平、道德等的問(wèn)題將會(huì)出現(xiàn)。此前,亞馬遜用AI招聘出現(xiàn)了性別歧視問(wèn)題就是有力的證明。
本文引用地址:http://m.butianyuan.cn/article/201811/394569.htm在世界每一個(gè)角落部署AI,這可能導(dǎo)致持續(xù)的系統(tǒng)性歧視,為此MIT計(jì)算機(jī)科學(xué)人工智能實(shí)驗(yàn)室(CSAIL)研究人員創(chuàng)造了一種減少AI偏差,同時(shí)又不降低預(yù)測(cè)結(jié)果準(zhǔn)確性的方法。
據(jù)麻省理工學(xué)院教授DavidSontag所言,傳統(tǒng)方法可能建議將與多數(shù)人群相關(guān)的數(shù)據(jù)集隨機(jī)化,作為解決不同人群不平等結(jié)果的一種方法,但這種方會(huì)權(quán)衡較低的預(yù)測(cè)準(zhǔn)確性,以實(shí)現(xiàn)所有人群的公平性,關(guān)鍵是從代表性不足的群體中挖掘更多數(shù)據(jù)。例如,研究人員發(fā)現(xiàn),在一個(gè)案例中,AI模型將女性標(biāo)記為低收入,男性標(biāo)記為高收入,這是有失客觀性的,因此他們通過(guò)將數(shù)據(jù)集中女性的代表性提高10倍,達(dá)到了將不準(zhǔn)確結(jié)果的數(shù)量減少了40%的效果。
Sontag在一份聲明中給出這一設(shè)計(jì)的簡(jiǎn)單解釋:“我們認(rèn)為這是一個(gè)工具箱,可幫助機(jī)器學(xué)習(xí)工程師弄清楚他們的數(shù)據(jù)要問(wèn)什么問(wèn)題,以便診斷他們的系統(tǒng)為什么會(huì)做出不公平的預(yù)測(cè)?!?/p>
他進(jìn)一步解釋說(shuō):“在這項(xiàng)工作中,我們認(rèn)為預(yù)測(cè)的公平性應(yīng)該在數(shù)據(jù)的背景下進(jìn)行評(píng)估,并且樣本量不足或未測(cè)量的預(yù)測(cè)變量引起的不公平性應(yīng)該通過(guò)數(shù)據(jù)收集來(lái)解決,而不是通過(guò)約束模型來(lái)解決?!?/p>
誠(chéng)然,預(yù)測(cè)準(zhǔn)確性的差異往往歸因于數(shù)據(jù)缺乏或不可測(cè)量的變量因素,因此該研究團(tuán)隊(duì)建議在進(jìn)行公平標(biāo)準(zhǔn)評(píng)論之前,對(duì)模型偏差,模型方差和結(jié)果噪聲進(jìn)行AI模型分析。
對(duì)于這一研究的成本,Sontag表示,“這揭示并分離了數(shù)據(jù)收集不足和模型選擇對(duì)公平性的不利影響。為了追求公平,其成本也要納入到數(shù)據(jù)收集和模型開(kāi)發(fā)的投資。但在某些十分重要的應(yīng)用程序中,其好處往往超過(guò)成本?!?/p>
在Sontag與其博士團(tuán)隊(duì)一起撰寫的論文中,有這一方法的詳細(xì)解釋。據(jù)悉,該成果將于下個(gè)月在蒙特利爾的神經(jīng)信息處理系統(tǒng)(NIPS)上公布。
評(píng)論