AI也會(huì)“學(xué)壞”?都是人類搗的鬼!
隨著人工智能技術(shù)的普及,我們似乎開始“無條件”相信計(jì)算機(jī)算法所提供的結(jié)果,然而有些問題是不可忽略的。除了對就業(yè)產(chǎn)生的影響,由于人工智能往往基于人類提供的樣本數(shù)據(jù)進(jìn)行學(xué)習(xí),并且“來者不拒”,包括人類的“負(fù)能量”,因此,人工智能極有可能和小孩一樣學(xué)壞,在價(jià)值取向上出現(xiàn)扭曲。人類在學(xué)習(xí)過程中可能出現(xiàn)的任何一種認(rèn)知偏差都有可能在人工智能系統(tǒng)的學(xué)習(xí)過程中出現(xiàn)。
本文引用地址:http://m.butianyuan.cn/article/201708/363653.htm這樣的事件已經(jīng)在不斷發(fā)生,比如不久前Google公司的圖像識別程序?qū)讉€(gè)黑人的面孔標(biāo)記為大猩猩;LinkedIn的一個(gè)招聘廣告計(jì)劃顯示偏好是男性;而名為Tay的Microsoft聊天機(jī)器人,僅僅在Twitter學(xué)習(xí)了一天,就開始出現(xiàn)了反猶太人的信息。
人工智能正在成為“種族主義者”
人工智能在“價(jià)值觀”上的這種偏差,給社會(huì)帶來的影響將是巨大的。
去年五月,就有一則報(bào)道稱美國法院用于犯罪風(fēng)險(xiǎn)評估的計(jì)算機(jī)程序?qū)谌俗锓复嬗衅?。根?jù)調(diào)查新聞組織ProPublica的說法,在COMPAS(懲教罪犯管理分析替代制裁)的項(xiàng)目中,關(guān)于判斷嫌疑人是否是累犯的問題,算法給出的黑人風(fēng)險(xiǎn)值(45%)幾乎是白人風(fēng)險(xiǎn)值的兩倍(24%),所以會(huì)更容易將黑人定為再犯嫌疑人。
與COMPAS類似的很多項(xiàng)目還在全美數(shù)百個(gè)法院中應(yīng)用,而這無疑將影響法官和其他官員的判決。我們似乎看到,由于存在種族歧視而被詬病的美國司法制度,已經(jīng)開始尋求技術(shù)的幫助來改變這樣的局面,但最終卻發(fā)現(xiàn)算法本身也存在種族偏見。
提供該軟件的公司Northpointe對報(bào)告的結(jié)論提出異議,但聲稱該項(xiàng)目由于敏感的商業(yè)機(jī)密拒絕透露內(nèi)部算法。無論如何,ProPublica的指責(zé)還是揭示了一個(gè)困擾許多社會(huì)學(xué)家和計(jì)算機(jī)科學(xué)家多年的問題,即在計(jì)算工具變得越來越先進(jìn)的同時(shí),其計(jì)算原理也變得越來越不透明。計(jì)算工具所依賴的逮捕記錄、郵政編碼、社會(huì)關(guān)系和收入等數(shù)據(jù),不僅帶有偏見,也有可能進(jìn)一步加深人類的偏見。
當(dāng)我們?yōu)橛?jì)算機(jī)算法提供的信息越多,機(jī)器學(xué)習(xí)和其它利用大數(shù)據(jù)的程序所展現(xiàn)出來的性能也就越好。據(jù)麥肯錫的全球管理顧問透露,在過去的一年中,針對人工智能這一領(lǐng)域,科技公司大約投入了200億到300億的資金,并主要用于研發(fā)。這些公司相信人工智能能夠篩選社會(huì)所產(chǎn)生的大量信息,并找到有助于人類社會(huì)變得更高效、更富有、更高幸福指數(shù)的模式。
許多科學(xué)家都希望利用機(jī)器學(xué)習(xí)實(shí)現(xiàn)很多事情,例如幫助失業(yè)人員找到工作、預(yù)測養(yǎng)老基金的走勢,以及整理稅務(wù)和海關(guān)工作。這些項(xiàng)目將會(huì)涉及到人類生活的方方面面,成為一種得到廣泛認(rèn)可的智慧。如其中一位計(jì)算機(jī)科學(xué)家所說:“我們可能不知道人工智能的應(yīng)用現(xiàn)在有多么廣泛,但是,我卻知道我們不能后退。”
然而,目前人們對人工智能的關(guān)注點(diǎn)往往是在預(yù)測未來趨勢上,關(guān)于如何阻止相關(guān)項(xiàng)目進(jìn)一步加劇過去社會(huì)中存在的不平等現(xiàn)象卻關(guān)注得很少。
舊金山非盈利性人權(quán)數(shù)據(jù)分析組(HRDAG)的首席統(tǒng)計(jì)師Kristian Lum表示:“人們常常一不小心就會(huì)讓程序自動(dòng)執(zhí)行不該有的偏見認(rèn)知?!比ツ?,Lum和一位合作伙伴一起展示了一個(gè)稱為“PredPol”的項(xiàng)目,計(jì)算機(jī)基于對過去的犯罪報(bào)告的“學(xué)習(xí)”,可以幫助警察部門預(yù)測未來犯罪可能發(fā)生的熱點(diǎn)地區(qū)。而這也導(dǎo)致了警察部門對于黑色和棕色人種聚集的地區(qū)過度警惕。一位政策研究員Samuel Sinyangwe表示,這種做法“特別惡毒”,一方面,警察可以說自己沒有偏見,只是根據(jù)數(shù)據(jù)的分析結(jié)果執(zhí)行;另一方面,這也在暗示公眾計(jì)算機(jī)的算法是公正的。
計(jì)算機(jī)的偏見認(rèn)知是人類賦予的
事實(shí)上,計(jì)算機(jī)本身是不會(huì)有偏見的,但是它會(huì)從人類所提供的數(shù)據(jù)中快速學(xué)會(huì)歧視。雖然機(jī)器學(xué)習(xí)使得計(jì)算機(jī)可以做很多例如語言翻譯、人臉識別或在Netflix隊(duì)列中推薦電影的工作。但是,隨著算法得以從原始代碼不斷“循環(huán)學(xué)習(xí)”,其中的原理也變得越來越復(fù)雜、越來越不透明。而對此,很多像Northpointe一樣的公司,礙于算法的商業(yè)敏感性往往也不愿意透露算法的內(nèi)部運(yùn)行原理。
此前,巴斯大學(xué)(University of Bath)的一位研究員Joanna Bryson開發(fā)了一個(gè)旨在“學(xué)習(xí)”詞匯之間的關(guān)聯(lián)性的程序,并發(fā)現(xiàn)這一程序在讀取了互聯(lián)網(wǎng)上數(shù)百萬頁的文本之后,開始將女性的名字和代詞與“接待員”和“護(hù)士”等工作聯(lián)系起來。令她更為震驚的是,這個(gè)結(jié)果與美國政府?dāng)?shù)據(jù)所顯示的結(jié)果一致,性別的確與職業(yè)存在著近90%的相關(guān)性。
Bryson表示:“人們希望人工智能是公正客觀的,而這本身就是錯(cuò)誤的。如果基礎(chǔ)數(shù)據(jù)反映了人們的固有印象和判斷,或者如果你根據(jù)人類的文化來訓(xùn)練人工智能,那么,你還是會(huì)發(fā)現(xiàn)偏見在人工智能領(lǐng)域中也是普遍存在的?!?/p>
那么,在這樣的情況下,誰會(huì)是“受害者”?根據(jù)Cathy O‘Neil所著的《數(shù)學(xué)殺傷性武器(Weapons of Math Destruction)》一書中所說,在當(dāng)今社會(huì)里,最大的“受害者”通常是那些最容易受到自動(dòng)化系統(tǒng)評估影響的人。比如說,真正富有的人不太可能通過網(wǎng)絡(luò)去找工作,也不會(huì)讓銀行行政人員以外的任何人評估他們的貸款申請。而在司法制度中,那些成千上萬沒有錢雇傭律師或其他法律顧問的被告,將成為最有可能接受計(jì)算機(jī)自動(dòng)評估的人。
在Kristian Lum 2016年發(fā)表的一篇論文中,她具體揭示了由于人工智能系統(tǒng)中偏見的存在,哪些人群會(huì)成為“受害者”。以PredPol為例——該項(xiàng)目根據(jù)奧克蘭市警察局提供的近期犯罪和逮捕記錄的統(tǒng)計(jì)數(shù)據(jù)進(jìn)行分析,總結(jié)出了未來可能發(fā)生犯罪的地域,從而為警方部署提供依據(jù)。盡管統(tǒng)計(jì)學(xué)家們以國家統(tǒng)計(jì)數(shù)據(jù)為基礎(chǔ),統(tǒng)計(jì)出的整個(gè)國家的毒品使用量白人和黑人的概率差不多,但是,PredPol項(xiàng)目顯示的犯罪集中區(qū)域的結(jié)果中黑人社區(qū)的數(shù)量卻是白人社區(qū)數(shù)量的兩倍。
而如果美國警方根據(jù)PredPol所預(yù)測的結(jié)果在這些區(qū)域不斷開展行動(dòng)并增加了逮捕數(shù)量,就會(huì)進(jìn)入一個(gè)惡性循環(huán),在那些警察最常訪問的地區(qū),PredPol預(yù)測的犯罪行為也會(huì)越來越多。同時(shí),這也將導(dǎo)致更多的警察被安排到這些地區(qū)。如此循環(huán)往復(fù)。
要解決偏見認(rèn)知的問題還沒有“萬全之策”
雖然,我們大多數(shù)人都不了解PredPol等程序中的復(fù)雜代碼,但是,洛杉磯一個(gè)處理警方監(jiān)視的社區(qū)小組Stop LAPD Spying Coalition,其組織者Hamid Khan表示,人們認(rèn)為預(yù)測性警務(wù)是一種自上而下的保持治安水平不變的方法,這將會(huì)導(dǎo)致那些本就不穩(wěn)定的地區(qū)陷入病態(tài)化。
在計(jì)算機(jī)科學(xué)界有這么一句話,錯(cuò)誤的輸入,就會(huì)導(dǎo)致錯(cuò)誤的輸出。這意味著程序并不是萬能的,如果你給計(jì)算機(jī)的信息是有缺陷的,計(jì)算機(jī)并不會(huì)修復(fù)這些缺陷,而只是根據(jù)已有的信息進(jìn)行處理。用Khan的話說:“輸入了種族主義,就會(huì)導(dǎo)致種族歧視信息的輸出”。
但現(xiàn)在我們還不清楚的是,現(xiàn)行的法律怎么樣去防止歧視,以及如何規(guī)范算法決策來解決這個(gè)問題。2016年,曾為微軟研究員的康奈爾大學(xué)教授Solon Barocas表示,當(dāng)涉及大數(shù)據(jù)和機(jī)器學(xué)習(xí)時(shí),現(xiàn)行法律是幾乎不能解決歧視問題的。目前在美國,已經(jīng)有許多傳統(tǒng)的民權(quán)主義者,包括美國公民自由聯(lián)盟(ACLU)在內(nèi),正在不斷維護(hù)民眾在這方面的權(quán)利,甚至試圖通過城市政策,要求警方披露其采用的包括人工智能在內(nèi)的所有技術(shù)。
但是,由于政府機(jī)構(gòu)采用私有企業(yè)的技術(shù),其內(nèi)部工作原理可能不透明,因而這一過程非常復(fù)雜并且曲折。
對此,英國也實(shí)施了一系列的保護(hù)措施。例如,如果一項(xiàng)決定被完全交給計(jì)算機(jī),那么,政府的服務(wù)商和公司就必須進(jìn)行披露。但是,牛津大學(xué)的阿蘭圖靈研究所的法律學(xué)者Sandra Wachter則表示,現(xiàn)行法律并沒有完全符合技術(shù)進(jìn)步的方向,很多漏洞都可能造成算法的不公開使用。因此,他要求政府提供“解釋權(quán)”,所有對應(yīng)的實(shí)施方案都必須以更高的透明度完全公開。
針對這一話題,很多科學(xué)文獻(xiàn)都反映了當(dāng)今社會(huì)關(guān)于“公平”本質(zhì)的辯論,而研究人員正在采用一切方法,從幾十年的歷史數(shù)據(jù)中剝離“不公平”的因素,并修改算法模型,從而保護(hù)受反歧視法保護(hù)的所有群體。然而,圖靈研究所的一名研究員仍然認(rèn)為這是非常困難的,因?yàn)椤案淖冏兞靠赡軙?huì)引入新的偏見,有時(shí)我們甚至不知道偏見如何影響數(shù)據(jù),以及什么才是偏見?!?/p>
所以說,人工智能除了技術(shù)和應(yīng)用本身,還有很多的社會(huì)和道德問題需要解決。可以說,計(jì)算機(jī)科學(xué)家面臨著一個(gè)陌生又熟悉的挑戰(zhàn):他們的工作要面向未來,但是,在面對有學(xué)習(xí)能力的機(jī)器的時(shí)候,卻發(fā)現(xiàn)自己卻還被困在非常古老而傳統(tǒng)的問題中。
評論