博客專欄

EEPW首頁(yè) > 博客 > 為了搞懂AI的「腦回路」,騰訊走出了重要的一步

為了搞懂AI的「腦回路」,騰訊走出了重要的一步

發(fā)布人:機(jī)器之心 時(shí)間:2022-01-21 來(lái)源:工程師 發(fā)布文章

人工智能可以幫助我們進(jìn)行決策,但誰(shuí)能來(lái)解釋 AI 做出的判斷對(duì)不對(duì)呢?

2020 年 6 月,杜克大學(xué)一項(xiàng)發(fā)表在 AI 頂會(huì) CVPR 的研究曾經(jīng)引發(fā)人們的討論熱潮。一個(gè)名為 PULSE 的人工智能算法可以把加了馬賽克的人臉照片恢復(fù)成清晰的面部圖像。

PULSE 模型使用著名的生成對(duì)抗網(wǎng)絡(luò) StyleGAN 來(lái)生成高分辨率圖像,與其他方法相比生成的圖片效果更好,清晰度更高,細(xì)節(jié)也更加豐富。

不過(guò)人們?cè)跍y(cè)試之后也發(fā)現(xiàn)了一些問(wèn)題,比如你把美國(guó)前總統(tǒng)奧巴馬的打碼照片交給 AI,它會(huì)將其還原成一個(gè)白人:

1.png

在 PULSE 的「偏見(jiàn)」被曝光后,人工智能社區(qū)瞬間被引爆,項(xiàng)目作者首先給出了回應(yīng),表示出現(xiàn)這種情況可能是因?yàn)?StyleGAN 的訓(xùn)練數(shù)據(jù)集,也有可能存在其他未知因素。

人工智能領(lǐng)域的先驅(qū),圖靈獎(jiǎng)獲得者 Yann LeCun 對(duì)此甚至還在社交網(wǎng)絡(luò)上和人們論戰(zhàn),他先是解釋為什么 PULSE 會(huì)出現(xiàn)這樣的偏見(jiàn),但并未引來(lái)普遍的認(rèn)同。

2.jpg

之后 Yann LeCun 又在多條推文中解釋了自己關(guān)于偏見(jiàn)的立場(chǎng),由此引發(fā)的討論遠(yuǎn)遠(yuǎn)超出技術(shù)的范疇。

對(duì)此,從事數(shù)據(jù)科學(xué)領(lǐng)域超過(guò)十年的 Luca Massaron 認(rèn)為,盡管從技術(shù)角度來(lái)看 Yann LeCun 是完全正確的,但看看這種觀點(diǎn)被拋出之后公眾的反應(yīng),你就會(huì)知道談?wù)撍嵌嗝吹拿舾小?/p>

PULSE 還只是一項(xiàng)學(xué)術(shù)研究,去年在 Facebook 的推薦算法中,包含黑人與白人平民和警察發(fā)生爭(zhēng)執(zhí)的片段被標(biāo)記為「有關(guān)靈長(zhǎng)類動(dòng)物的視頻」的事件引發(fā)了軒然大波,臉書一度禁用了視頻推薦功能并道歉。

在獲得廣泛應(yīng)用的背后,由于 AI 是由大規(guī)模數(shù)據(jù)驅(qū)動(dòng),無(wú)需闡明推理邏輯性的方法,所作出的「統(tǒng)計(jì)規(guī)律」判斷經(jīng)常會(huì)受到人們的質(zhì)疑。

可解釋性,AI 的發(fā)展的重要方向

深度學(xué)習(xí)的運(yùn)行機(jī)制難以理解,對(duì)于 AI 工程師們來(lái)說(shuō)就像「煉丹」——難以溯因,難以調(diào)參,對(duì)于大眾和監(jiān)管機(jī)構(gòu)而言則是個(gè)「黑箱」——不知如何運(yùn)作,也不知它給出的結(jié)果是否公正。

雖然并非所有人工智能系統(tǒng)都是黑盒,AI 也并不比傳統(tǒng)形式的軟件更加不可解釋,但在人工智能模型復(fù)雜度直線上升的今天,問(wèn)題正在逐漸變得明顯,AI 越來(lái)越先進(jìn),我們面臨的挑戰(zhàn)也越來(lái)越大。

人們一直在各個(gè)方向上,為 AI 技術(shù)的可解釋性而努力著。

3.png

2010 年,吳恩達(dá)等人在 Google AI 發(fā)表的「識(shí)別貓」研究中,神經(jīng)網(wǎng)絡(luò)通過(guò)樣本學(xué)習(xí)理解了貓的概念,通過(guò)特征可視化方法我們可以看到算法學(xué)習(xí)的結(jié)果。

近年來(lái),各國(guó)面對(duì)人工智能技術(shù)落地的政策著重強(qiáng)調(diào)了保護(hù)隱私和可解釋性。2018 年 5 月,有「史上最嚴(yán)格的隱私和數(shù)據(jù)保護(hù)法」之稱的歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)正式生效。該法案被稱為是 20 年來(lái)數(shù)據(jù)隱私條例的最重要變化,同時(shí),有關(guān)「算法公平性」的條款要求所有公司必須對(duì)其算法的自動(dòng)決策進(jìn)行解釋。

在我國(guó),去年 8 月通過(guò)的《個(gè)人信息保護(hù)法》第 24 條也明確要求必須確保自動(dòng)化決策的透明度和結(jié)果公正。

如何才能讓人工智能在帶來(lái)便利的同時(shí)保證可解釋性?這意味著我們需要構(gòu)建起可信的 AI 體系。在業(yè)界看來(lái),在 AI 技術(shù)應(yīng)用時(shí)考慮可解釋性,需要考慮公平性并消除偏見(jiàn),減小模型漂移,實(shí)行風(fēng)險(xiǎn)管理,在模型部署的全生命周期進(jìn)行持續(xù)監(jiān)控,最終形成的工具體系需要在多種不同硬件環(huán)境下部署。

可解釋 AI 并非算法模型中某個(gè)獨(dú)立的環(huán)節(jié)或具體工具,要想構(gòu)建可解釋 AI,就需要在 AI 模型整個(gè)生命周期的每個(gè)步驟持續(xù)介入,在每個(gè)環(huán)節(jié)都構(gòu)建不同的可解釋方法。近幾年來(lái),眾多科技企業(yè)紛紛加大投入,構(gòu)建了各種可解釋 AI 相關(guān)工具和服務(wù)。

在 AI 模型構(gòu)建的數(shù)據(jù)準(zhǔn)備階段,微軟提出了 Datasheets for Datasets,用于記錄數(shù)據(jù)集的創(chuàng)建、組成、預(yù)期用途、維護(hù)等屬性,關(guān)注數(shù)據(jù)集是否存在偏見(jiàn)。

而谷歌提出的 Model Cards 工具包則主要關(guān)注模型的部署和監(jiān)控環(huán)節(jié),可報(bào)告機(jī)器學(xué)習(xí)模型的出處、效果和道德信息評(píng)估,對(duì)算法本身的表現(xiàn)提供解釋。

4.png

國(guó)內(nèi)的互聯(lián)網(wǎng)企業(yè)也在采取行動(dòng)。比如,美團(tuán)在去年 9 月發(fā)布文章,公開了關(guān)于配送時(shí)間的四種評(píng)估算法,介紹了預(yù)估送達(dá)時(shí)間背后的算法邏輯。

從機(jī)制上來(lái)看,業(yè)內(nèi)實(shí)現(xiàn)算法可解釋的主流方式有「事前可解釋性」(Ante-hoc)和「事后可解釋性」(Post-hoc)兩種。顧名思義,前者使用的算法結(jié)構(gòu)相對(duì)簡(jiǎn)單,可以通過(guò)觀察模型本身來(lái)理解模型的決策過(guò)程,又可稱之為「內(nèi)在可解釋模型」。事后可解釋方法則是給定訓(xùn)練好的模型及數(shù)據(jù),嘗試?yán)斫饽P皖A(yù)測(cè)的原理。目前業(yè)界流行的大部分 AI 可解釋機(jī)制屬于事后可解釋的范疇。

構(gòu)建 AI 系統(tǒng)的說(shuō)明書

人工智能技術(shù)發(fā)展到現(xiàn)在,人們大多數(shù)時(shí)間都在性能上應(yīng)用上作努力,如今對(duì)于可解釋 AI 的研究可以說(shuō)才剛剛開始。我們不能為了追求效率忽視 AI 系統(tǒng)的公平性和透明度,也不應(yīng)該完全反過(guò)來(lái),對(duì)新技術(shù)簡(jiǎn)單持不接受態(tài)度。

1 月 11 日,在騰訊舉行的科技向善創(chuàng)新周活動(dòng)中,騰訊研究院、騰訊天衍實(shí)驗(yàn)室、騰訊優(yōu)圖、Tencent AI Lab 等機(jī)構(gòu)聯(lián)合完成的《可解釋 AI 發(fā)展報(bào)告 2022——打開算法黑箱的理念與實(shí)踐》正式發(fā)布。

5.jpg

該報(bào)告用超過(guò)三萬(wàn)字的篇幅,對(duì)于可解釋 AI 的現(xiàn)狀進(jìn)行了概述,展望了這一領(lǐng)域的發(fā)展趨勢(shì)。此外,該報(bào)告對(duì)可解釋 AI 未來(lái)的方向提出了一些看法。

從 1 月 17 日起,該報(bào)告可在騰訊研究院的微信公眾號(hào)下載。

報(bào)告鏈接(或點(diǎn)擊文末「閱讀原文」):https://docs.qq.com/pdf/DSmVSRHhBeFd0b3Zu

報(bào)告指出,在不同的領(lǐng)域,面對(duì)不同的對(duì)象,人工智能解釋的深淺與目標(biāo)都存在區(qū)別。在對(duì)于 AI 可解釋性要求相對(duì)較高的醫(yī)療、教育、金融、自動(dòng)駕駛等領(lǐng)域中,存在不同的解釋方法;另一方面,對(duì)于監(jiān)管、終端用戶和開發(fā)者來(lái)說(shuō),對(duì)于可解釋性的需求也各不相同。這意味著可解釋 AI 是一個(gè)龐雜的領(lǐng)域,需要業(yè)界和學(xué)界共同努力,構(gòu)建一個(gè)完整的體系。

同時(shí),對(duì) AI 應(yīng)用系統(tǒng)的透明性與可解釋性要求,需要考慮效率、安全、隱私、網(wǎng)絡(luò)安全、知識(shí)產(chǎn)權(quán)保護(hù)等目的平衡,界定不同場(chǎng)景的最小可接受標(biāo)準(zhǔn),必要時(shí)采取常規(guī)監(jiān)測(cè)、人工審核等機(jī)制,不應(yīng)僅限于算法的可解釋性。

來(lái)自業(yè)界、學(xué)界的專家均對(duì)《可解釋 AI 發(fā)展報(bào)告 2022》的發(fā)布表示歡迎:

「可解釋的 AI 好比一個(gè)老師在大學(xué)里面教課——我們需要注意跟學(xué)生的互動(dòng),講的東西學(xué)生得聽懂,聽了得有受益。這就需要我們和學(xué)生之間有更多的了解,」微眾****首席人工智能官楊強(qiáng)說(shuō)道。「人工智能不是孤立存在的,它必須在和人互動(dòng)的情況下才能產(chǎn)生效果。這份報(bào)告開了一個(gè)好頭,在這個(gè)基礎(chǔ)上我們可以展開長(zhǎng)期的研究?!?/p>

除了行業(yè)研究,騰訊近年來(lái)也在可解釋 AI 技術(shù)方面有了諸多成果。

自 2014 年起,深度學(xué)習(xí)技術(shù)發(fā)生了巨大的進(jìn)步,識(shí)別準(zhǔn)確率從 96.3% 提升到了 99.5%,直接促成了人臉識(shí)別技術(shù)的實(shí)用化。最近疫情期間,需要用到人臉識(shí)別做身份驗(yàn)證的場(chǎng)景越來(lái)越多。在騰訊支持的健康碼上,一年累計(jì)亮碼次數(shù)已超過(guò) 240 億次。

騰訊優(yōu)圖實(shí)驗(yàn)室在人臉識(shí)別任務(wù)中構(gòu)建了非監(jiān)督的訓(xùn)練方式。在驗(yàn)證交互過(guò)程中對(duì)圖片的選擇進(jìn)行了優(yōu)化。在特征層面上,算法又引入了馮 · 米塞斯分布來(lái)對(duì)人臉特征進(jìn)行建模,將模型學(xué)到的特征表示為概率分布,在圖像識(shí)別的過(guò)程中,AI 除了輸出相似度之外,還可以輸出自信度,為人們提供了額外的解釋。

6.jpg

優(yōu)圖提出的可解釋人臉識(shí)別技術(shù)。

騰訊覓影《肺炎 CT 影像輔助分診及評(píng)估軟件》是騰訊首款獲得國(guó)家****品監(jiān)督管理局第三類醫(yī)療器械注冊(cè)證的輔助診斷軟件產(chǎn)品。其可用于肺部 CT 影像的顯示、處理、測(cè)量和肺炎病灶識(shí)別,并不單獨(dú)給出對(duì)患者的診斷意見(jiàn),而是采取與人類醫(yī)生結(jié)合的方式進(jìn)行診斷。

這種方式大幅提高了醫(yī)生的工作效率,針對(duì) AI 技術(shù)人員則滿足全局可解釋性。

7.jpg

騰訊天衍可信可解釋疾病風(fēng)險(xiǎn)預(yù)測(cè)模型,其中綠色箭頭表示增強(qiáng)主要輸出可解釋性的輔助輸出。

此外,軟件研究資料中對(duì)于訓(xùn)練及測(cè)試數(shù)據(jù)的來(lái)源、數(shù)量、多維分布進(jìn)行了詳盡分析,可幫助開發(fā)者和用戶理解模型特性,消除因數(shù)據(jù)偏移而導(dǎo)致模型輸出結(jié)果問(wèn)題的疑慮。

可解釋 AI 的未來(lái)

可解釋 AI 是一個(gè)新興的研究領(lǐng)域,現(xiàn)在還缺乏統(tǒng)一的理論框架和技術(shù)路線。我們現(xiàn)在也很難找到準(zhǔn)確率很高,同時(shí)可解釋性極好的算法。更多的時(shí)候,我們需要進(jìn)行效率與可解釋性之間的選擇。

從技術(shù)的角度看,深度學(xué)習(xí)可解釋性的矛盾就像 20 世紀(jì)初物理學(xué)中的「烏云」,反映了人們對(duì)于新發(fā)現(xiàn)事物理解的缺失。在這些方向的研究對(duì)于技術(shù)進(jìn)步將會(huì)起到巨大的推動(dòng)作用。從方法上,研究人員正在通過(guò)理論和實(shí)驗(yàn)兩條道路試圖理解算法運(yùn)作的機(jī)制。

而在實(shí)踐過(guò)程中,我們需要注意到這一問(wèn)題是多元性的:針對(duì)不同的算法、不同的領(lǐng)域和不同的受眾需要有不同的標(biāo)準(zhǔn)。

「可解釋性就像物理學(xué)定義的邊界函數(shù)——當(dāng)我們進(jìn)行優(yōu)化時(shí),總要定義一個(gè)邊界的共識(shí)??山忉尵褪羌纫獙?duì)方理解,又要它的性能高,這是一件非常難的事?!箺顝?qiáng)表示,「我認(rèn)為這會(huì)是一個(gè)長(zhǎng)期存在的問(wèn)題。解決方法或許是在一個(gè)細(xì)分領(lǐng)域里,根據(jù)領(lǐng)域知識(shí)來(lái)給予回答,為我們指明方向,進(jìn)而逐漸推廣?!?/p>

隨著技術(shù)的進(jìn)步和制度的完善,期待在不久的將來(lái),我們能夠建立起一套完整可信的可解釋 AI 體系。

*博客內(nèi)容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀點(diǎn),如有侵權(quán)請(qǐng)聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉