一個芬蘭科學家認為現(xiàn)在的AI太蠢了 下海開搞AI互聯(lián)網
Harri Valpola是名芬蘭計算機科學家,同時,他也是ZenRobotics創(chuàng)始人兼CTO,Curious AI Company創(chuàng)始人兼CEO。
本文引用地址:http://m.butianyuan.cn/article/201710/365106.htmHarri Valpola的理想是創(chuàng)造AI互聯(lián)網。“從人類的角度來看,它看起來像個巨大的大腦,像互聯(lián)網一樣,AI將對我們的生活產生巨大影響”,或許這只是某種錯覺,但我們仍堅持這一觀點。因為只有這樣才能讓人類大腦理解互聯(lián)互通的人工智能互聯(lián)網。
然而前路漫漫,艱難而漫長。盡管近年來取得了一些進展,但人工智能的發(fā)展速度仍然不盡人意。Valpola 表示,“目前使用的所有AI都是二流的,而不是頂級的,這種AI就像愚蠢的蜥蜴,無法理解這個復雜的世界。我們需要大量數(shù)據,因為我們想要建立的是更傾向于哺乳動物的大腦。”
從學者到創(chuàng)業(yè)者的轉變 Valpola遇到了很多難題
與許多研究AI前沿領域的計算機科學家和數(shù)學家一樣,Valpola也擁有無可挑剔的研究能力。他是芬蘭神經網絡先驅Tuevo Kohonen的學生,他在阿爾托大學工作了二十年(研究人造大腦)。直到2007年他離開學術界,致力于把理論應用到現(xiàn)實世界的臟數(shù)據中,他才意識到自己缺失了什么。
為了把理論付諸實踐,Valpola與其同事共同創(chuàng)立了ZenRobotics公司,主要致力于為智能機器人開發(fā)大腦。他說,我們原本的計劃是對AI進行革命。技術在實驗室中運作良好,但卻總難以應付紛繁復雜的現(xiàn)實情況。
第一個問題是:數(shù)據。模擬實驗中,機器人可以“看到”周圍的一切,但計算機卻總難以讀取凌亂復雜的現(xiàn)實世界的數(shù)據。第二個問題是:現(xiàn)實情況下,計算機無法通過數(shù)百萬次測試得到有效的解決方法。像人類一樣,機器人是個物體,且總運動緩慢;由于受過多的重復訓練,它們很少有機會能夠自主進化發(fā)展。
Valpola表示,現(xiàn)實世界中,互動是種非常稀缺的資源。他使用的許多技術以及他人的研究所獲得的許多驚人的發(fā)現(xiàn),實際上是基于模擬環(huán)境。以AlphaGo為例,這是個非常好的系統(tǒng),但為了讓AlphaGo學會游戲規(guī)則需要花費的時間也是驚人的。該系統(tǒng)達到頂級人類玩家水平之前,從某種程度上來說已經花費了3000年的時間練習此游戲。
由于無法實現(xiàn)其初始目標,ZenRobotics公司進行了一些調整:現(xiàn)在,機器人致力于實現(xiàn)較為簡單的目標,即從工業(yè)廢物中挑選有用的原料。該公司籌集了1100萬英鎊,吸引了全球最大的回收公司成為客戶。但對Valpola而言,一切都只是妥協(xié)。因此,2015年,Valpola離開了ZenRobotics公司,他打算從頭再來,再進行一次嘗試。
重頭再來 創(chuàng)立The Curious AI Company
44歲的Harri Valpola創(chuàng)立了一家擁有20名員工的人工智能初創(chuàng)公司The Curious AI Company(以下簡稱Curious公司)。該公司不久前剛籌集到367萬美元,與許多科技融資相比,盡管這筆資金數(shù)額還較小,但令人印象深刻的是該公司目前還沒有產品問世,只處于前期研究階段。
風險投資公司Balderton Capital的合伙人Daniel Waterhouse表示:“投資于研究型企業(yè)并不常見,但有益于本輪融資和之前的種子輪融資。但從長遠看,研究型企業(yè)有能力創(chuàng)造出產品和商機。這種方式有利于培養(yǎng)人才,且Valpola也致力于建立一個世界級頂尖研究團隊。”
Curious公司聯(lián)合創(chuàng)始人:從左到右分別是Harri Valpola、首席技術官(CTO)Antti Rasmus和首席運營官(COO)TimoHaanp
Curious公司解決了當初ZenRobotics公司所面臨的難題,首先是處理數(shù)據的難度。Valpola的方法很簡單:“清理臟數(shù)據的最好辦法是讓電腦來處理”。2015年他發(fā)表了一篇文章,公布了他的第一次嘗試:他描述了一個梯形網絡:一個能夠通過在結果中注入噪音來訓練自己處理復雜情況的神經網絡,像教師在考試題目中加入易錯點來幫助學生保持警覺一樣。
梯形網絡允許計算機學習大量未經預先標記的例子,該領域中稱其為半監(jiān)督學習(semi-supervised learning)。手寫數(shù)字圖片是基準問題測試領域常用的數(shù)據集,此次使用該方法取得的實驗結果令人驚嘆。100個初始標記的示例中,該系統(tǒng)正確識別了近99%的圖像。世界頂尖計算機科學家稱贊該技術“令人印象深刻,是最先進的技術”。
Valpola繼續(xù)研發(fā)新技術以處理其他類型的數(shù)據集。今年的神經信息處理系統(tǒng)大會上(AI領域的重要會議,也稱NIPS),他將提出一個類似“梯子網絡”的新技術,Valpola將其命名為具有雙關意義的“Mean Teacher(刻薄的老師)”。發(fā)表的實驗結果顯示:此次實驗對象是Google街景視圖的房屋編號圖片——即使僅經過較少的訓練,該項技術仍然取得了較以往更好的表現(xiàn)。
Yoshua Bengio是蒙特利爾大學計算機科學系的教授,也是深度學習的領軍人物之一,他說:“根據文中描述,我認為其取得的成果相當不錯,是半監(jiān)督學習的又一創(chuàng)紀錄發(fā)展。”
Valpola也在研究其在ZenRobotics公司時所面臨的另一個問題,即AI對于試錯的依賴。這也是最先進的“無模型”AI所運用的方法——對于這類AI,研究人員并未預先將其可能遇到的所有規(guī)則預先錄入??梢試L試數(shù)十億種不同的場景,而后再逐漸建立有效模式。但現(xiàn)實世界中事情永遠不會如此簡單。Valpola表示,為了保證AI順利運轉,AI將需要基于相對較少的信息進行推理,這一能力也被我們稱之為“計劃”。
但問題在于神經網絡僅能單向發(fā)揮作用。例如向其展示大熊貓和長臂猿的圖像,他們將迅速而準確的識別出這兩個對象。但如果問AI:“你會把長臂猿歸為何種形象?”正如一個典型案例表明的那樣,AI處于混亂狀態(tài),無法理解這個問題,即使長臂猿看起來與熊貓完全不同。Valpola說,“這項技術背后有堅實的理論作支撐,但引人注目的是其在實踐中的表現(xiàn)。網絡在一方面可信,另一方面竟然表現(xiàn)得如此愚蠢,簡直讓人難以相信。”
人類非常擅長逆向思考(很多動物也十分擅長于此)。當你思考某事物時,你也在這樣做,這時你需要問自己:“我是如何做到這一點的?”你可能只考慮是否向老板發(fā)一封關于假期的電子郵件或者親自打電話給他。神經網絡可以利用目前情況和計劃行動,且利用它們預測未來。但是,神經網絡無法進行反向操作,不能說:“如果想要實現(xiàn)某個目標,你最好這樣做”,神經網絡的線性進程無法逆轉。
對于任何智能決策過程而言,這都至關重要。Valpola表示,“我們已經解決了這個問題,能夠調用可以發(fā)出語音的神經網絡,能夠以預期結果為導向做出行動。”盡管該研究尚未公布,但Valpola認為不久的將來這一切都將實現(xiàn)。
一切只是開始 Valpola想創(chuàng)造出“AI互聯(lián)網”
對于Valpola而言,這一切還只是開始。他不會感到滿足,除非創(chuàng)造出AI互聯(lián)網。對此,他的解決方案是模仿人類思維過程,特別是人類思維方式中的“關系推理”。
想要理解關系推理的運作方式,只需要低頭看下手。手與其他部分的關系十分密切,其他部分包括另一只手、身體的其余部分、房間的其他物體等。大腦通過將其放置在具體語境中使其變得有意義。
神經網絡看待世界的方式非常不同。預將手展示出來,必須拍攝圖片,之后圖片被分解成像素;然后,神經網絡開始處理像素,為每個局部區(qū)域分配一組數(shù)字:實質上其評分方法是通過對比不同對象的相似程度。
該系統(tǒng)模擬的是大腦中細胞的運動,但忽略了一個關鍵因素:即可以識別出對象的特征,但不能理解哪些特征屬于哪個對象以及對象之間相互關聯(lián)的方式。因此,它需要大量數(shù)據。因為它不能進行推斷,注定要重新學習每一種情況。
“你無法恰當?shù)乇磉_某些事物,就好像某些東西屬于一類,但又與其他事物分開,” Valpola說,“從內部看,該網絡并未真正地代表某類事物。如無這一能力,人工智能在任何情況下都不會是革命性的”。
對于Valpola的觀點,許多人表示同意。倫敦大學帝國理工學院認知機器人教授Murray Shanahan說:“我曾與Valpola見過幾次面,我們對AI和深度學習有類似的觀點,” Bengio補充道:“我認為他是對的。我自己就發(fā)起了一個有類似目標的研究項目。在我看來,從對知識的突破到更高層次的認知,這些才是未來進步的關鍵方面。”
問題在于:怎么做?Alphabet的人工智能研究部門DeepMind最近發(fā)表了一篇論文,對調整神經網絡以應對挑戰(zhàn)提出了建議。這篇文章沒有給Valpola留下什么深刻印象。他說:“我在這一領域已經研究了很長時間了,現(xiàn)在出版的東西與八年前我們剛開始進行的工作非常相似。光是發(fā)現(xiàn)問題、描述問題不管用。”
Valpola說:這樣做不行的原因在于它仍然是基于離散信息的數(shù)字模型。他認為:想要克服對象關系問題,人工智能必須能處理連續(xù)的數(shù)據信號——這意味著需要增強其模擬能力。
“這是人類學習的基礎,” Valpola說。這一點也是他想要模擬哺乳動物大腦的關鍵:“我們需要的是與目前的深入學習具有相同知覺能力的東西,除此之外,還需要符號操縱能力和模擬推理的先天能力。”關于如何實現(xiàn)這一點,他表示“那是個秘密”,值得一提的是,這是自他進入學術界以來一直研究的問題。
“第一個原型是十年前建成的。而我們也正在繼續(xù)這方面的研究。所以我們正在構建這些具有更好互動能力的神經網絡。我認為人們目前還未意識到實現(xiàn)這一點的意義。接下來的一年中,我們將在該領域展開非常有趣的研究。”
試想AI如能理解關系,也有助于理解他們未來的發(fā)展方向。Valpola對于AI的常見難題置之一笑,例如回形針最多化(paperclip maximiser,這是牛津大學哲學家 Nick Bostrom 提出的一個思維實驗)。“必須有一個智能系統(tǒng)來接管世界,另一方面,需要一個非常愚蠢的系統(tǒng)按照人類的要求辦事。但到目前為止,這些還都未能實現(xiàn)。”他說道。
相反,人工智能將自己看作與其他智慧生物一樣的復雜網絡的一部分:不僅是人工智能(作為AI互聯(lián)網的一部分),而且作為人類。他們會更加社會化,產生或好或更壞的影響。
Valpola表示,“如何帶領人們走向美好生活,我認為AI能夠理解這個問題。”
在AI的第一波發(fā)展浪潮中,你需要的是成為一名程序員。第二波浪潮中,你需要成為一名數(shù)據科學家。而在第三波浪潮中——你需要擁有更高的道德,而且越高,越好。
評論