新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > AI進入“深水區(qū)”,算法是潛在偏見的最后解決方案?

AI進入“深水區(qū)”,算法是潛在偏見的最后解決方案?

作者: 時間:2018-04-20 來源:CIO時代網(wǎng) 收藏

  本來并不存在偏見,它不會因為無法通過邏輯來解釋的理由而“想”某些東西是真的或假的。不幸的是,從創(chuàng)建算法到解釋數(shù)據(jù),機器學(xué)習(xí)中存在著人類的偏見,并且直到現(xiàn)在,幾乎沒有人試圖解決這個嚴(yán)重的問題。

本文引用地址:http://m.butianyuan.cn/article/201804/378701.htm

  本周二,外媒表示,由谷歌前首席技術(shù)官Varun Kacholia和Facebook前搜索引擎工程師Ashutosh Garg一起創(chuàng)立的公司,近日完成了2400萬美元的融資,投資方為Lightspeed Ventures和Foundation Capital。

  這是一家旨在通過公開收集世界各地的勞動力的信息,解決雇傭、求職和晉升的信息鴻溝與招聘歧視問題的初創(chuàng)公司,依托于自主研發(fā)的軟件收集處理招聘職位和應(yīng)聘者的個人信息,系統(tǒng)的處理減輕了信息不對稱的問題,匹配率比傳統(tǒng)招聘的提高了八倍,同時還節(jié)約了90%的篩選成本。

  將大數(shù)據(jù)和算法自動化決策應(yīng)用于勞動力的篩選上無可厚非,龐大的數(shù)據(jù)基礎(chǔ)也可以提高決策的效率。但算法的結(jié)果一定沒有偏差嗎?對此,Gary表示:“人們在招聘過程中也存在偏見,這是因為個體獲取的信息是有限的。而數(shù)據(jù)算法為招聘人員提供了充足的信息和洞見,彌補了招聘人員可能因不了解某些技能或公司而產(chǎn)生的誤差,從而大幅增加合格候選人的數(shù)量。”

  按照該公司的說法,產(chǎn)品的篩選機制將消除任何潛在的人類偏見,使其完成符合平等就業(yè)機會委員會的規(guī)定,年齡、性別、種族、宗教、殘疾等都不會成為算法的參考標(biāo)準(zhǔn)。消除人們固有的成見,使人事決策變得不那么“私人化”固然有可取之處,但前提是決策系統(tǒng)本身不受這些偏見的影響。對算法的監(jiān)督和修正,必然成為算法運行的重中之重。

  其實,對于的偏見問題,在2017年的時候,一篇來自MIT Technology Review的文章就曾針對這一問題發(fā)表過相關(guān)評論。

  “在機器學(xué)習(xí)和人工智能發(fā)展的關(guān)鍵時刻,算法偏見正逐漸成為一個重大的社會問題。如果算法中潛在的偏見導(dǎo)致很重要的決策不被承認(rèn)、不受控制,這可能會造成更嚴(yán)重的負(fù)面后果,尤其是對較貧窮的社區(qū)和少數(shù)群體。另外,最終的抗議可能會阻礙一項極其有用的技術(shù)的進步。”

  而算法專家凱文·斯拉文(Kevin Slavin)也曾在TED演講中表示,算法“提煉自這個世界,來源于這個世界”,而現(xiàn)在則“開始塑造這個世界”。在算法“塑造世界”的時代,我們應(yīng)該思考的是:該如何突破算法的瓶頸,賦予正向的價值。

  1.算法其實并不客觀

  在我們的認(rèn)知里,算法最大的優(yōu)勢是能夠根據(jù)用戶的“數(shù)字自我”實現(xiàn)智能化、精準(zhǔn)化推薦。換句話說,算法是人們在眾多的信息中尋找自己所需材料的快速通道,這個過程的實現(xiàn)也是基于人們對算法的信任,即它具有“客觀性”。

  不過,人們都忘了一點,算法及其決策程序是由開發(fā)者塑造的。開發(fā)者寫入的代碼,使用的訓(xùn)練數(shù)據(jù)以及對算法進行應(yīng)力測試的過程,都會影響算法之后的選擇。這就意味著開發(fā)者的價值觀、偏見和人類缺陷都會反映在軟件上。

  就像Facebook一直過不去的“劍橋分析丑聞”事件,利用先進的計算技術(shù)或者AI技術(shù),試圖通過人們的隱私數(shù)據(jù)來操縱選舉,其實質(zhì),就是基本數(shù)據(jù)倫理的問題。每個公司都有屬于自己的一套算法,因為他們都有不同的目的和價值觀。獲取信息時,我們覺得自己有權(quán)利去做選擇,但實際上,所有的選項都是算法給出的既定選項。這么看來,算法并不客觀。

  2.在不客觀中學(xué)會自救

  對算法的質(zhì)疑從其誕生起就一直存在,這種質(zhì)疑反映出了人類的科學(xué)理性。在對算法的設(shè)計提出繼續(xù)完善的同時,學(xué)會自救也是必要的,換句話說我們要學(xué)會自我保護。

  就整體情況而言,算法的最大問題,在于其不透明性。對于這個復(fù)雜的領(lǐng)域,專業(yè)的技術(shù)人員至今也未能全部摸清楚,搞明白,更不用說普通人了。所以,在不確定其設(shè)計理念或者運行邏輯的情況下,我們要做的是明確“算法并不客觀”的理念,時刻對其限制表示警惕。

  或許,這個時候,較為激進的思維模式更受歡迎,我們要學(xué)會提問,從提問中了解算法發(fā)生的作用以及其最初的設(shè)計目的。比如,用傳統(tǒng)網(wǎng)頁方式瀏覽新聞,盡量不依靠智能搜索,雖然不一定能成功,但是還是要學(xué)著用自己的邏輯對抗算法可能帶來的信息窄化,從而不被算法限制。

  3.如何減少人工智能的偏見

  至于如何減少人工智能的偏見,微軟的研究員表示,最好的方式是從算法訓(xùn)練的數(shù)據(jù)開始審查,這是一種有效的方式。

  數(shù)據(jù)分布本身有一定的偏見性。還是以美國大選為例,開發(fā)者手中的美國公民數(shù)據(jù)分布并不均衡,本地居民的數(shù)據(jù)多于移民者,富人多于窮人,這都是可能出現(xiàn)的情況。而數(shù)據(jù)的不均衡可能會使AI對社會的組成得出錯誤的結(jié)論,比如僅僅通過機器學(xué)習(xí)算法分析,就得出“大多數(shù)美國人都是富有的白人”這個結(jié)論。

  同樣的,也有研究表明,用于執(zhí)法部門的AI 在檢測新聞中出現(xiàn)的罪犯照片時,結(jié)果會偏向黑人和拉丁美洲裔居民。此外,訓(xùn)練數(shù)據(jù)中存在的偏見還有很多其他形式,只不過這些提到的更多一些。但是訓(xùn)練數(shù)據(jù)只是審查方式的一種,通過“應(yīng)力測驗”找出人類存在的偏見也同樣重要。

  其實要讓AI變得沒有偏見,我們就要勇于去揭開算法的“黑箱”??焓諧EO宿華曾說,如果沒有很好的對社會的認(rèn)知、對人文的思考,僅靠技術(shù)本身會很容易走偏,要用哲學(xué)的智慧將算法、技術(shù)力量放大,從而避免表達幸福感的種種障礙。現(xiàn)在,我們要做的就是盡最大的努力去避免這些事情的發(fā)生。



關(guān)鍵詞: AI 人工智能

評論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉