美媒:人類擔心AI統(tǒng)治世界?10年內(nèi)沒啥可怕的
10月26日消息,據(jù)科學(xué)美國人雜志報道,伊隆·馬斯克(Elon Musk)最新宣布,旗下特斯拉電動汽車公司制造的所有汽車都將支持全自動駕駛功能。但這需要讓人相信,特斯拉的AI(人工智能)技術(shù)能夠確保所有汽車都能實時讀取數(shù)據(jù),并對不同的情況做出反應(yīng)。
本文引用地址:http://m.butianyuan.cn/article/201610/311816.htm現(xiàn)在,AI的確可以執(zhí)行許多令人感到驚奇的事情,比如上周AlphaGo電腦程序的開發(fā)者報告稱,他們的軟件已經(jīng)學(xué)會了在倫敦復(fù)雜的地鐵系統(tǒng)中導(dǎo)航,就像個“本地通”。甚至就連白宮也緊跟潮流,于數(shù)日前發(fā)布報告,宣稱將幫助美國應(yīng)對未來,屆時機器可能會像人類那樣思考。
可是,已經(jīng)研究AI數(shù)十年,并嘗試解決AI基本問題的計算機科學(xué)家奧倫·埃齊奧尼(Oren Etzioni)認為,在人類擔心機器將接管世界之前,機器的進化之路依然十分漫長。埃齊奧尼如今是艾倫人工智能研究所(AI2)的首席執(zhí)行官,這個組織是微軟聯(lián)合創(chuàng)始人保羅·艾倫(Paul Allen)2014年創(chuàng)建的,重點是研究AI的潛在益處。艾倫認為,好萊塢甚至其他研究人員都將AI描述得過于邪惡,甚至可能威脅人類生存。
AI2啟動的AI項目并不十分華麗,比如基于AI、支持學(xué)術(shù)研究的搜索引擎Semantic Scholars。但他們卻專注于解決AI領(lǐng)域的難題,比如推理等。《科學(xué)美國人》最近在紐約AI大會上采訪了埃齊奧尼,他擔心當前公司過多吹噓AI的現(xiàn)有能力,特別是機器學(xué)習(xí)技術(shù)(又稱深度學(xué)習(xí))。這種技術(shù)可運行大量數(shù)據(jù)集,通過網(wǎng)絡(luò)模擬人類大腦的神經(jīng)網(wǎng)絡(luò),以便教授計算機自己解決具體問題,比如識別模式或識別照片中的特定目標等。
埃齊奧尼還反思為何10歲孩子都比谷歌旗下AI公司DeepMind的AlphaGo更加聰明,以及最終為何需要開發(fā)出AI“監(jiān)護人”程序以便確保其他AI程序不會變得更危險。以下就是采訪摘要:
問:在尋找研發(fā)AI技術(shù)的最好方式時,AI研究人員之間是否存在分歧?
埃齊奧尼:有些人已經(jīng)看到了一點兒未來。我們在許多AI領(lǐng)域都取得了巨大進展,比如語音識別、無人駕駛汽車以及AlphaGo等。所有這些都是值得稱道的技術(shù)成就。但是如何解釋它們呢?深度學(xué)習(xí)顯然是非常有價值的技術(shù),但我們在研發(fā)AI過程中還有許多問題有待解決,比如推理(即機器人可理解而僅僅限于計算2+2=4)、獲得背景知識(機器能用于創(chuàng)造情境)等。自然語言理解是另一個問題。即使我們開發(fā)出AlphaGo,但我們依然沒有程序能夠解讀和充分理解一個段落甚至簡單的句子。
問:有人認為,深度學(xué)習(xí)是AI領(lǐng)域最好的技術(shù)。深度學(xué)習(xí)到底有什么作用?
埃齊奧尼:當你有大量數(shù)據(jù)需要處理時,而計算機又知道它們代表的意義,那么你將具備強大的計算能力,你可以嘗試找出數(shù)據(jù)中隱藏的模式,深度學(xué)習(xí)在這個領(lǐng)域堪稱無敵。此外,AlphaGo可以處理3000萬個與位置有關(guān)的數(shù)據(jù),這些位置可教授AI程序在不同的情況下采取正確行動。還有其他例證,比如放射圖像,它可以顯示是否存在腫瘤,而深度學(xué)習(xí)程序可以調(diào)整顏色,確定這份圖像是否是之前看過的。深度學(xué)習(xí)還能夠執(zhí)行很任務(wù),這是真正的前沿技術(shù)。
問:那么深度學(xué)習(xí)面臨哪些挑戰(zhàn)?
埃齊奧尼:問題是系統(tǒng)有了智慧還不行,還必須有更多數(shù)據(jù)可被用于訓(xùn)練它。以學(xué)生的標準化考試為例,比如SAT或紐約高考數(shù)據(jù)。以前,為了獲得高分,智能程序可通過3000萬份被打上成功或不成功標記的考卷進行學(xué)習(xí),而新的AI程序需要更復(fù)雜、更多互動的學(xué)習(xí)過程。AI還可通過設(shè)備、對話或讀書學(xué)習(xí)。盡管深度學(xué)習(xí)有如此明顯的優(yōu)勢,但10歲孩子也能做到這些,比如選擇一本書、讀一個章節(jié)、回答與其相關(guān)的問題等。
問:為何AI能夠通過標準考試意味著其取得巨大進展?
埃齊奧尼:實際上,我們已經(jīng)在AI2啟動了這樣的研究項目。去年,我們宣布懸賞5萬美元,鼓勵人們開發(fā)可通過8年級標準科學(xué)測試的AI軟件。來自全世界的780多個團隊耗費數(shù)月時間,但最終沒有人的分數(shù)超過60分。這為我們提供了AI現(xiàn)狀的現(xiàn)實、定量評估。
問:如何才能讓頂級AI系統(tǒng)正確回答問題?
埃齊奧尼:通常情況下,語言中都隱藏著各種線索。最成功的系統(tǒng)可以從科學(xué)文本和其他公共資源中收集信息,然后利用調(diào)節(jié)信息檢索技術(shù)為每個多選問題確定最佳答案。舉例來說,什么是最好的電導(dǎo)體:塑料勺、木叉還是鐵蝙蝠?AI系統(tǒng)非常善于運用公式,可以在大量常見的文件中檢測電、鐵或?qū)щ娭g的關(guān)系,可以很輕松地給出答案。為此,有時候AI系統(tǒng)可以采取快捷方式,非常迅速地給出答案。之所以沒有系統(tǒng)獲得及格分數(shù),我只能說這些系統(tǒng)都使用統(tǒng)計學(xué)進行猜測,而非仔細推理。
問:AlphaGo背后的DeepMind團隊現(xiàn)在已經(jīng)開發(fā)出新的AI程序,通過使用外部存儲系統(tǒng)超越深度學(xué)習(xí)。他們的工作對創(chuàng)造更像人的AI有何影響?
埃齊奧尼:在移動深度神經(jīng)網(wǎng)絡(luò)領(lǐng)域,DeepMind依然是領(lǐng)跑者。這種特別貢獻非常重要,但在推理方面卻不算太大突破。現(xiàn)有的系統(tǒng)可以很輕松地完成類似任務(wù),但這里涉及到神經(jīng)網(wǎng)絡(luò)如何通過例證學(xué)習(xí)執(zhí)行任務(wù)的問題??傮w來說,DeepMind邁出了一大步,但對于人類來說依然是一小步。
問:有人將深度學(xué)習(xí)、機器視覺和記憶等技術(shù)結(jié)合起來,以開發(fā)更完整的AI嗎?
埃齊奧尼:這是個非常有吸引力的創(chuàng)意,實際上已經(jīng)有許多類似研究。我在華盛頓大學(xué)擔任教授時,就曾基于這個想法,利用互聯(lián)網(wǎng)充當AI系統(tǒng)的數(shù)據(jù)庫。我們建立了名為信息公開提取的技術(shù),它可以為50億個網(wǎng)頁做索引,并從中提取語句,試圖將它們變成機器可操作的知識。這臺機器擁有超自然的能力,可以快速吸收這些網(wǎng)頁和所有句子,問題是那些文本或圖片上的句子很難吸收。人類大腦擁有不可思議的能力,計算機科學(xué)家們至今還未破解。這種能力可以映射出推理等反應(yīng)。但是迄今為止,我們還么有找到機器能像人腦那樣工作的機制。
問:你曾提及,要想達到人類水平,AI的研發(fā)至少還需要25年時間。你所謂的人類水平AI指什么,為何給出這樣的時間框架?
埃齊奧尼:人類水平AI能夠真正地理解自然語言、擁有人類智慧的廣度、能夠玩PokemonGo、走過街道等,這種多樣性是人類智慧的標志,而我們今天能做的就是研發(fā)“狹隘的學(xué)者”,以便其能在某些方面表現(xiàn)更突出。至于25年的時間框架,我曾詢問人工智能發(fā)展協(xié)會的朋友:計算機系統(tǒng)何時能在廣義上變得像人類那樣聰明?沒人認為10年內(nèi)能夠?qū)崿F(xiàn)這種假設(shè),67%的人認為至少要到25年之后。25%的人認為永遠無法實現(xiàn)。他們錯了嗎?你會選擇相信誰,把握AI脈搏的人還是好萊塢?
問:為何如此多令人尊重的科學(xué)家和工程師警告稱,AI可能滅亡人類?
埃齊奧尼:對于我來說,很難推測史蒂夫·霍金(Stephen Hawking) 或馬斯克警告AI威脅的動機。我猜,談?wù)摵诙纯赡苁欠浅o聊的,因為這是個緩慢進化的主題。但有一件事我要說,當他們談?wù)揂I變得邪惡或引發(fā)潛在災(zāi)難性后果時,他們總會插入限定詞,比如“最終”或“可能”。我同意這樣的觀點,如果我們談?wù)?000年后或無限未來,AI很可能導(dǎo)致人類滅絕。但我認為,這種長期討論不該分散我們的注意力,我們應(yīng)該更關(guān)注現(xiàn)實問題,比如AI與就業(yè)、AI與武器系統(tǒng)等。
問:鑒于AI存在的缺點,我們應(yīng)該擔心汽車制造商對無人駕駛汽車與日俱增的興趣嗎?
埃齊奧尼:我不是那些沒有方向盤或剎車板的無人駕駛汽車的忠誠粉絲。鑒于我對計算機視覺和AI的了解,我對無人駕駛汽車感覺十分不舒服。但我是綜合系統(tǒng)的支持者,比如當你在車上打盹時,AI能幫你剎車。人類司機和自動系統(tǒng)相結(jié)合可能比單純的人類司機或AI駕車更安全。這很復(fù)雜,將新技術(shù)融入到人類日常工作與生活中同樣不容易。但我不確信這種解決方案是否能有效。
問:谷歌、Facebook以及其他大科技公司近來聯(lián)合推出了“人工智能造福人類和社會合作組織”,為AI研究設(shè)定道德和社會規(guī)范。對此你有何看法?
埃齊奧尼:世界上領(lǐng)先的科技公司聯(lián)合起來思考這些事情是好事,我認為他們這樣做是回應(yīng)人們的擔憂,即AI是否會接管世界。許多恐懼完全被夸大了。即使我們有了無人駕駛汽車,也不會立即造成破壞性影響。馬斯科等人談及的AI對人類生存威脅至少是數(shù)十年乃至數(shù)百年之后的事情??墒?,目前有許多非常現(xiàn)實的挑戰(zhàn):自動化、數(shù)字化技術(shù)以及AI都在影響就業(yè),無論是機器人還是其他技術(shù),這非常令人擔憂。無人駕駛汽車和卡車會大幅改善安全,但他們也會對依賴駕駛謀生的大量工人造成影響。這個新組織談?wù)摰钠渌虑橐泊嬖谄姟H绻鸄I技術(shù)被用于處理貸款或信用卡申請,它們能否法律或道德規(guī)范嗎?
問:你認為如何能確保AI遵守法律和道德規(guī)范?
埃齊奧尼:如果你是銀行,利用軟件程序處理貸款,你將無法藏身其后。一口咬定計算機做錯了事不是借口,計算機程序可能參與了歧視行為,那是因為計算機系統(tǒng)需要使用許多變量和統(tǒng)計,以便尋找與其他變量有關(guān)的聯(lián)系。如果它使用了影響決定的替代變量,那真會成為問題,對于人類來說也很難發(fā)現(xiàn)和追蹤。為此,我們提議研發(fā)AI“監(jiān)護人”,以監(jiān)測和分析基于AI開發(fā)的貸款處理程序的行為,確保其遵守法律和道德規(guī)范。
問:AI“監(jiān)護人”已經(jīng)存在嗎?
埃齊奧尼:我們已經(jīng)發(fā)出呼吁,并開始研發(fā)這些程序。我認為,很快就會出現(xiàn)類似程序,其愿景非常被看好。我們希望AI“監(jiān)護人”的創(chuàng)意能夠應(yīng)對《終結(jié)者》等好萊塢電影中對AI的誤解,即技術(shù)變得邪惡,并成為龐大的壟斷力量。
評論