AI如何設(shè)計才能人類利益最大化?
曾為現(xiàn)代互聯(lián)網(wǎng)早期協(xié)議和架構(gòu)設(shè)計做出貢獻的Vint Cerf,用一個寓言來解釋為什么在人工智能等新興技術(shù)出現(xiàn)后,勇敢的領(lǐng)導(dǎo)力至關(guān)重要。
本文引用地址:http://m.butianyuan.cn/article/201903/398346.htm想象一下,你住在一個被群山環(huán)繞的山谷底部的小社區(qū)里。在遠處的山頂上有一塊巨石,它已經(jīng)存在了很長時間,從未移動過,所以就你的社區(qū)而言,它只是景觀的一部分。然后有一天,你會注意到那塊巨石看起來不穩(wěn)定,如果它滾下山,會摧毀你的社區(qū)和里面的每個人。事實上,你也許意識到,也許你一生都忽視了它的移動。那塊巨石一直在一點一點地移動,但是你從來沒有仔細觀察每天發(fā)生的細微變化,比如它投下的陰影發(fā)生了微小的變化,它和下一座山之間的視覺距離,以及它與地面摩擦發(fā)出的幾乎察覺不到的聲音。你意識到,自己一個人無法獨自跑上山去阻止巨石的移動,你太渺小了,而巨石又太大了。
但是隨后你意識到,如果能找到一顆鵝卵石,并把它放在正確的位置,它會減緩巨石的動量,稍微扭轉(zhuǎn)移動的趨勢。但僅僅一顆鵝卵石無法阻止巨石摧毀村莊,所以你要求整個社區(qū)加入你的行列。每個人手中都拿著鵝卵石,爬上了這座山,并為此做好了準(zhǔn)備。顯然,是人和鵝卵石產(chǎn)生了所有的作用,而并不是那塊巨石。
安全有益的技術(shù)不是希望和偶然的結(jié)果,它是勇敢的領(lǐng)導(dǎo)力和專注持續(xù)合作的產(chǎn)物。但是目前,人工智能社區(qū)充滿著各種目的的競爭。
人工智能的未來——也就是人類的未來——已經(jīng)被九大科技巨頭所控制。這些科技巨頭正在開發(fā)框架、芯片組和網(wǎng)絡(luò),資助了大部分研究,獲得了大部分專利,并且在這個過程中以不透明或不可見的方式挖掘著我們的數(shù)據(jù)。其中六家科技巨頭在美國,我稱他們?yōu)镚-MAFIA:谷歌、微軟、亞馬遜、Facebook、IBM和蘋果。剩下三家在中國,也就是BAT:百度、阿里巴巴和騰訊。
為了滿足短視的期望,這九大科技巨頭分別面臨著來自美國華爾街和中國北京的巨大壓力,即使我們可能會為未來付出巨大的代價。我們必須授權(quán)并鼓勵九大巨頭改變?nèi)斯ぶ悄艿陌l(fā)展軌跡,因為如果沒有我們的大力支持,他們不能也不會自己去做。
接下來要做的就是一系列鵝卵石,它們可以讓人類走上通往未來的更好道路。
九大巨頭的領(lǐng)導(dǎo)者都承諾,他們正在開發(fā)和推廣人工智能,以造福人類。我相信這是他們的本意,但是履行這一承諾是非常困難的。首先,我們應(yīng)該如何定義“造?!?這個詞到底是什么意思?這又回到了人工智能社區(qū)內(nèi)部的問題。我們無法讓所有人都同意“造?!保驗檫@個寬泛的說法實在太模糊了,無法引導(dǎo)人工智能社區(qū)。
例如,受西方道德哲學(xué)家Immanuel Kant啟發(fā)的人工智能社區(qū),學(xué)習(xí)如何將權(quán)利與義務(wù)系統(tǒng)預(yù)先編程到某些人工智能系統(tǒng)中。殺人是不好的,救人是好的。如果人工智能控制著汽車,并且它唯一的選擇是撞上一棵樹并傷害司機,或者撞上一群人并殺死他們,那么這種邏輯就會存在問題。僵硬的解釋不能解決更復(fù)雜的現(xiàn)實環(huán)境,因為在現(xiàn)實環(huán)境中,選擇可能會更加多樣:撞上一棵樹并殺死司機;撞上人群并殺死八個人;撞到人行道上,只殺死了一個三歲的男孩。在這些例子中,我們?nèi)绾味x“好”的最佳版本?
同樣,框架對九大巨頭來說也很有用。他們不需要精通哲學(xué),他們只是要求一種更慢、更認真的方法。九大巨頭應(yīng)該采取具體措施來收集、培訓(xùn)和使用我們的數(shù)據(jù),雇傭員工,以及在工作場所傳達道德行為。
在這個過程的每一步,九大巨頭都應(yīng)該分析自己的行為,并確定他們是否正在造成未來的傷害,他們也應(yīng)該能夠驗證自己的選擇是否是正確的。這樣的要求需要有關(guān)于偏見和透明度的明確標(biāo)準(zhǔn)。
然而現(xiàn)在,并沒有單一的基線或標(biāo)準(zhǔn)來評估偏見,也沒有人在尋求克服目前人工智能中存在的偏見。以我自己在中國的經(jīng)歷,這種沒有把安全放在速度之上的機制,會產(chǎn)生令人擔(dān)心的后果。
此外,透明度也沒有標(biāo)準(zhǔn)。在美國,G-MAFIA和美國公民自由聯(lián)盟、新美國基金會以及哈佛大學(xué)伯克曼·克萊因中心都在人工智能上進行了合作,旨在提高人工智能研究的透明度。這些合作伙伴發(fā)布了一系列非常棒的建議,幫助引導(dǎo)人工智能研究朝著積極的方向發(fā)展,但是這些原則并不能以任何方式實施,而且在G-MAFIA的所有業(yè)務(wù)部門中也沒有被遵守。BAT也同樣如此。
九大巨頭正在使用充滿偏見的有缺陷的語料庫訓(xùn)練數(shù)據(jù)集。這是眾所周知的事實,而改進數(shù)據(jù)和學(xué)習(xí)模式又是一項巨大的財務(wù)負擔(dān)。比如ImageNet,一個有嚴(yán)重問題的語料庫。ImageNet包含1400萬張標(biāo)記圖像,其中大約一半的標(biāo)記數(shù)據(jù)來自美國。
在美國,新娘的“傳統(tǒng)”形象是穿著白色連衣裙和面紗的女人,盡管在現(xiàn)實中,這種形象并不能代表大多數(shù)人的婚禮。有些女人會選擇穿著長褲結(jié)婚,有些則穿著色彩鮮艷的夏裝在沙灘上結(jié)婚,有些穿著和服或紗麗結(jié)婚。然而,除了白色的裙子和面紗之外,ImageNet無法識別出其他新娘。
我們也知道醫(yī)療數(shù)據(jù)集存在問題。接受識別癌癥訓(xùn)練的系統(tǒng)主要采用的是淺色皮膚的攝取照片和掃描。在未來,它可能會導(dǎo)致黑褐色皮膚的人被誤診。如果九大巨頭知道語料庫中存在問題,卻沒有采取任何措施,那么他們將把人工智能引向錯誤的道路。
其中一種解決方案是開放人工智能,并評估當(dāng)前使用的所有訓(xùn)練數(shù)據(jù)。作為一個小項目,IBM的印度研究實驗室分析了1969年至2017年間入圍曼布克文學(xué)獎的作品。它揭示了“書中普遍存在的性別偏見和刻板印象,這些偏見和刻板印象體現(xiàn)在不同的特征上,如職業(yè)、介紹和與書中人物相關(guān)的行為。”男性角色更有可能有更高層次的工作,如導(dǎo)演、教授和醫(yī)生,而女性角色則更有可能被描述為“老師”或“妓女”。
如果使用自然語言處理、圖形算法和其他基本的機器學(xué)習(xí)技術(shù)能夠發(fā)現(xiàn)文學(xué)獎項中的偏見,那么這些技術(shù)也可以被用來發(fā)現(xiàn)流行訓(xùn)練數(shù)據(jù)集中的偏見。一旦發(fā)現(xiàn)問題,就應(yīng)該及時發(fā)布并進行修復(fù)。這樣的操作具有雙重目的,因為訓(xùn)練數(shù)據(jù)可能會受到熵的影響,進而可能會危及整個系統(tǒng)。有了定期的關(guān)注,訓(xùn)練數(shù)據(jù)就可以保持健康。
另一個解決方案是九大巨頭——或者至少是G-MAFIA——分擔(dān)創(chuàng)建新訓(xùn)練集的費用。這是一個很大的要求,因為創(chuàng)建新的語料庫需要大量的時間、金錢和人力資本。在我們成功審查人工智能系統(tǒng)和語料庫并修復(fù)其中現(xiàn)存的問題之前,九大巨頭應(yīng)該堅持讓人類注釋者給內(nèi)容貼上標(biāo)簽,并使整個過程透明化。然后,在使用這些語料庫之前,他們應(yīng)該驗證數(shù)據(jù)。這將是一個艱巨而乏味的過程,但將符合整個領(lǐng)域的最佳利益。
是的,九大巨頭需要我們的數(shù)據(jù)。然而,他們應(yīng)該贏得而不是假設(shè)擁有我們的信任。與其用晦澀難懂的語言改變服務(wù)協(xié)議條款,或者邀請我們玩病毒式宣傳游戲,他們應(yīng)該解釋并披露自己在做什么。當(dāng)九大巨頭獨立或與人工智能生態(tài)系統(tǒng)中的其他參與者合作進行研究時,他們應(yīng)該致力于數(shù)據(jù)披露,并充分解釋動機和預(yù)期結(jié)果。如果他們選擇這樣做,我們可能會愿意參與并支持他們的工作。
九大巨頭應(yīng)該尋求一個清醒的研究議程。目標(biāo)簡單明了,就是構(gòu)建技術(shù),并在不危及我們的情況下提升人類水平。要想實現(xiàn)這一目標(biāo),可以通過一種叫做“差別技術(shù)進步”的方式。它會把減少風(fēng)險的人工智能系統(tǒng)置于增加風(fēng)險的系統(tǒng)之上。這是個好主意,但很難實施。例如,情景中提到的生成性對抗網(wǎng)絡(luò),如果被黑客利用和使用,可能會非常危險。但它們也是研究取得巨大成就的途徑。與其假設(shè)沒有人會將人工智能重新用于邪惡目的——或者假設(shè)我們可以簡單地處理出現(xiàn)的問題——九大巨頭應(yīng)該開發(fā)一個過程來評估新的基礎(chǔ)研究或應(yīng)用研究是否會產(chǎn)生一種好處遠勝任何風(fēng)險的人工智能。為此,九大巨頭接受或做出的任何金融投資都應(yīng)該包括有益使用和風(fēng)險規(guī)劃的資金。例如,如果谷歌追求生成性對抗網(wǎng)絡(luò)研究,它應(yīng)該花費合理的時間、人力資源和金錢來調(diào)查、繪制和測試負面影響。
這樣的要求也有助于抑制對快速利潤的預(yù)期。故意減緩人工智能的開發(fā)周期并不是一個流行的建議,但它卻是至關(guān)重要的。對我們來說,提前思考和計劃風(fēng)險比在事情出錯后簡單地做出反應(yīng)更安全。
在美國,G-MAFIA可以承諾重新調(diào)整自己的招聘流程,優(yōu)先考慮潛在員工的技能,以及他們是否會融入公司文化。這個過程無意中忽略了對道德的個人理解。作為一位備受尊敬的數(shù)據(jù)科學(xué)家,同時也是Fast Forward Labs的創(chuàng)始人,Hilary Mason在采訪中解釋了一個簡單的道德篩選過程。她建議問一些尖銳的問題,并專心聆聽候選人的回答。比如:“你正在研究一種讓消費者獲得金融服務(wù)的模式。種族是模型中的一個重要特征,但是你不能使用種族特征。對此你會怎么做?”;“你被要求使用網(wǎng)絡(luò)流量數(shù)據(jù)向小企業(yè)提供貸款。事實證明,現(xiàn)有數(shù)據(jù)并沒有嚴(yán)格告知信貸風(fēng)險。你會怎么做?”
候選人應(yīng)該根據(jù)答案被有條件地錄用,并且在開始工作之前必須完成無意識的偏見培訓(xùn)。九大巨頭可以通過雇傭?qū)W者、訓(xùn)練有素的倫理學(xué)家和風(fēng)險分析師來建立一種支持人工智能倫理的文化。理想情況下,這些專家將嵌入整個組織之中,包括消費者硬件、軟件和產(chǎn)品團隊;銷售和服務(wù)團隊;共同領(lǐng)導(dǎo)的技術(shù)項目;建立網(wǎng)絡(luò)和供應(yīng)鏈;設(shè)計和策略團隊;人力資源和法律團隊;以及營銷和宣傳團隊。
九大巨頭應(yīng)該制定一個流程來評估研究、工作流程、項目、合作伙伴關(guān)系和產(chǎn)品的道德影響,這個流程也應(yīng)該融入公司的大部分工作職能中。作為一種信任的姿態(tài),九大巨頭應(yīng)該公布這一過程,這樣我們就能更好地理解對數(shù)據(jù)做出決策的方法。無論是合作還是獨立開發(fā),九大巨頭都應(yīng)該為人工智能員工制定一套專門的行為準(zhǔn)則。它應(yīng)該反映基本人權(quán),也應(yīng)該反映公司獨特的文化和價值觀。如果有人違反了該守則,應(yīng)向工作人員開放一個清晰的保護性舉報渠道。
實際上,所有這些措施都將暫時對九大巨頭的短期收入產(chǎn)生負面影響。投資者也需要給他們一些喘息的空間。
人工智能是一個很廣闊的領(lǐng)域,而我們才剛剛開始上山。是時候抓住我們的鵝卵石,踏上正確的道路了。
評論