新聞中心

EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 人工智能誕生60周年 展望機器學習的未來發(fā)展

人工智能誕生60周年 展望機器學習的未來發(fā)展

作者: 時間:2017-04-11 來源:物聯(lián)網(wǎng)在線 收藏
編者按:在最近十年,隨著大數(shù)據(jù)和云計算(大規(guī)模計算)的發(fā)展,機器學習進入了發(fā)展的黃金期。2016年12月17日,在2016機器智能前沿論壇上,中外專家探討了機器學習的未來發(fā)展與展望。

  1952年,Arthur Samuel在IBM公司研發(fā)了一款西游跳棋程序,這個程序具有自學習能力,可以通過對大量棋局的分析逐漸辨識出每一棋局中的“好棋”與“壞棋”,從而不斷提高機器的跳棋水平并很快下贏了Samuel自己。1956,也就是在60年前的達特茅斯會議上,Samuel介紹了自己的這項工作,并發(fā)明了“”一詞。

本文引用地址:http://m.butianyuan.cn/article/201704/346438.htm

  在計算科學歷史上,“”有著多種定義,普遍的觀點認為“”就是計算機利用數(shù)據(jù)和“經(jīng)驗”來改善算法系統(tǒng)自身的性能。斯坦福大學對機器學習的定義是在沒有明確編程指令的情況下,讓計算機自行采取行動的科學。通過已有數(shù)據(jù)產(chǎn)生“學習算法”模型后,再應用到新的數(shù)據(jù)集上,從而對新的情況做出策略性判斷,這就是所謂“預測”。可以說,機器學習是關于“學習算法”的科學,而則是研究開發(fā)具有智能的機器。

  2016年是誕生60周年。在最近十年,隨著大數(shù)據(jù)和云計算(大規(guī)模計算)的發(fā)展,機器學習進入了發(fā)展的黃金期。2016年12月17日,在2016機器智能前沿論壇上,中外專家探討了機器學習的未來發(fā)展與展望。

  機器學習進入發(fā)展黃金期

  傳統(tǒng)意義來說來,人工智能分兩步:一是對數(shù)據(jù)的表示和表達,二是通過算法達到預測和決策的過程。傳統(tǒng)人工智能是基于語義的方式實現(xiàn)數(shù)據(jù)的表示或表達,而從數(shù)據(jù)表示到預測往往是通過基于規(guī)則的邏輯推理,一個典型代表就是專家系統(tǒng),這也是第一代機器學習。

  對于第一代機器學習來說,規(guī)則的定義十分重要,一旦規(guī)則定義不準確或有問題,將導致不正確的邏輯推理。此外,基于規(guī)則的模型對于淺層推理有效,但沒法用來進行深層次的推理。因此,也就發(fā)展出了第二代機器學習,即基于統(tǒng)計模型的機器學習。

  在南京大學周志華教授的《機器學習》一書中,對于機器學習的發(fā)展階段和歷史有更為細分的劃分與相應的算法介紹。實際上,在二十世紀90年代中期,“統(tǒng)計學習”開始登上歷史的舞臺并迅速成為主流,代表技術即為Support Vector Machine(SVM,支持向量機)以及Kernel Methods等。而統(tǒng)計學習成為主流,則是因為前期的神經(jīng)元網(wǎng)絡研究出現(xiàn)瓶頸后(主要是因為當時的參數(shù)設置以手工為主),學者們才把注意力轉向了統(tǒng)計學習。

  隨著統(tǒng)計學習的興起,出現(xiàn)了機器學習的黃金十年。統(tǒng)計學習不僅被用于算法建模,還被用于數(shù)據(jù)的表示與表達,這樣就弱化了對于相關背景知識的要求。比如計算機視覺和圖像研究屬于計算機科學領域,其背景知識比較容易獲取,而自然語言處理則需要英文或中文的語言學知識,這對于計算機專家來說就有難度了。

  在更為廣泛的應用領域,統(tǒng)計模式識別正在取代用于數(shù)據(jù)表達的專家規(guī)則,從而降低了人工智能和機器學習的入門門檻。這樣,從數(shù)據(jù)表示到學習算法再到推理預測,就都可以全部用機器學習算法實現(xiàn),這就進入了第三代機器學習階段,即從數(shù)據(jù)直接到智能的端到端的機器學習。當然,隨著大數(shù)據(jù)和云計算的出現(xiàn),以復雜神經(jīng)元網(wǎng)絡為代表的深度學習也可以用于數(shù)據(jù)表示與表達。

  可以看到,面向數(shù)值計算的統(tǒng)計學習和以神經(jīng)元網(wǎng)絡為代表的深度學習是現(xiàn)代人工智能的兩個主要分支。而在大數(shù)據(jù)+云計算的時代,這兩大分支都進入了新的發(fā)展黃金期。

  對抗網(wǎng)絡和對偶學習

  由前述可知,機器學習分為三個階段,即第一階段的數(shù)據(jù)獲取與生成、第二階段的學習算法和第三階段的推理預測。在大數(shù)據(jù)與云計算的前提下,這三個階段有著新的發(fā)展。

  在數(shù)據(jù)獲取與生成階段,最新的研究發(fā)向就是用對抗網(wǎng)絡來產(chǎn)生更多的數(shù)據(jù)。也就是說,如果在現(xiàn)實世界無法獲得更多數(shù)據(jù)的前提下,就用機器學習算法來模擬更多的現(xiàn)實世界的數(shù)據(jù),以供后續(xù)“訓練”學習算法之用。

  所謂生成模型(Generative Model)是對數(shù)據(jù)的建模,即用大量數(shù)據(jù)來訓練這個模型,以期望這個模型能產(chǎn)生更多類似的數(shù)據(jù)。常見的生成方法有混合高斯模型、樸素貝葉斯法和隱形馬爾科夫模型等等。以混合高斯模型為例,該方法雖然有強大的逼近數(shù)據(jù)分布的能力,是非常適合概率密度估計的建模方法,但該方法不足以刻畫復雜的數(shù)據(jù),因此要用到神經(jīng)元網(wǎng)絡。

  對于可以產(chǎn)生數(shù)據(jù)的神經(jīng)元網(wǎng)絡來說,如何訓練它而使得產(chǎn)生的數(shù)據(jù)更接近真實數(shù)據(jù)?這就出現(xiàn)了生成對抗網(wǎng)絡(Generative Adversarial Network,GAN)。比如用一個神經(jīng)元網(wǎng)絡來產(chǎn)生數(shù)據(jù),再用另一個神經(jīng)元網(wǎng)絡來判別數(shù)據(jù)是否為真實,再通過兩個網(wǎng)絡的結果差異來優(yōu)化數(shù)據(jù)生成模型。在著名的AlphaGO的訓練算法中,也采用了類似的概念來生成用于訓練計算機的新棋局,從而實現(xiàn)自對弈。

  對于基于深度神經(jīng)元網(wǎng)絡的生成網(wǎng)絡來說,一個可以改進之處就是如何利用大量未標注的真實數(shù)據(jù)。因為在訓練神經(jīng)元網(wǎng)絡的時候,需要大量人工標注的數(shù)據(jù),用以訓練算法,比如標注一幅圖為“花卉”。清華大學副教授、卡耐基梅隆大學兼職教授朱軍介紹了多種利用未標注數(shù)據(jù)的方法。

  朱軍還特別介紹一種引入了“Attention聚焦”和“Memory記憶”機制的生成網(wǎng)絡,用于根據(jù)有限的高度抽象的參數(shù)來生成接近真實的數(shù)據(jù)。比如在生成新圖像的過程中,原有的神經(jīng)元網(wǎng)絡模型對真實的圖像參數(shù)進行了高度抽象,在這個過程中損失了很多細節(jié)數(shù)據(jù),在使用另一個神經(jīng)元網(wǎng)絡生成新圖像的過程中,如果只采用高度抽象后的圖像參數(shù),就無法表達更多的圖像細節(jié)。因此,在前期學習真實圖像數(shù)據(jù)的過程中,可以引入了“Memory記憶”機制,把一些圖像細節(jié)數(shù)據(jù)存儲起來,用于后續(xù)生成更接近真實的圖像。

  除了在數(shù)據(jù)生成環(huán)節(jié)需要克服未標注數(shù)據(jù)的局限外,在整個端到端的機器學習算法過程中,也需要利用未標注數(shù)據(jù)。這也就是說在機器學習的訓練學習算法和預測推理階段,如何利用大量利用未標注數(shù)據(jù)。微軟亞洲研究院首席研究員劉鐵巖介紹了對偶學習,它一方面可讓有監(jiān)督學習和無監(jiān)督學習算法大量利用未標注數(shù)據(jù),另一方面也可以提高增強學習算法的學習速度。

  所謂對偶學習(Dual Learning),就是利用兩個對偶的任務形成一個閉環(huán)反饋系統(tǒng),從而得以從未標注的數(shù)據(jù)上獲得反饋信息,進而利用該反饋信息提高對偶任務中的兩個機器學習模型。舉例來說,兩個對偶任務可以是中翻英和英翻中,這涉及到了兩個機器學習模型,對偶學習的過程就是先把一句話從中文翻譯成英文、再從英文翻譯成中文,之后再比較生成的中文與原始中文之間的差異,從而提高兩個機器學習模型的性能。在這種場景下,其實不需要標注數(shù)據(jù),即不需要知道生成中文句子的“對”與“錯”,只需要知道生成后的中文句子與原始中文句子的差異,即可優(yōu)化算法模型。

  深度問答的挑戰(zhàn)

  自從2011年IBM Watson在智力競賽電視節(jié)目《危險邊緣》(Jeopardy!)中獲勝后,深度問答作為人工智能和機器學習的一個重要應用場景,就引起了全世界廣泛的關注。深度問答不僅涉及到自然語言理解(NLP),還涉及到對于問題的分析與理解、候選答案的評估以及選擇策略、快速檢索與搜索等技術。

  人機問答最早可以追溯到圖靈測試,圖靈測試就是以問答的形式進行的。到了1960年前后出現(xiàn)了基于模板的QA(Template-based QA)、1990年前后出現(xiàn)的基于信息檢索的QA(IR-based QA)、2000年前后出現(xiàn)的基于社區(qū)的QA(Community-based QA)和基于大規(guī)模知識庫的QA(Large Scale KB-based QA),以及今天的閱讀理解式QA。

  中科院自動化所副研究員劉康著重介紹了基于知識庫的深度語義解析和閱讀理解式深度語義理解與知識推理。在基于知識庫的QA中,核心問題在于如何解決問題文本到知識庫之間的映射關系,特別是要消除歧義?,F(xiàn)代機器學習方法要解決的問題,就是對問題文本和知識庫的知識分別進行分布式表達或建模,然而再在二者之間再建立起基于深度神經(jīng)元網(wǎng)絡的對應關系模型,從而實現(xiàn)精準的映射。而為什么要對問題和知識都進行分布式建模,原因主要是現(xiàn)代互聯(lián)網(wǎng)上的信息是海量的,因此理解問題文本和理解知識都需要大規(guī)模分布式建模。

  閱讀理解式QA是另一種形式的問答。所謂閱讀理解式QA就是給定一段話,然后根據(jù)這段話的信息來回答問題。這其實需要綜合一段話中的幾句,然后進行深度推理和聯(lián)合推理。目前的深度學習方式還不能解決知識推理的挑戰(zhàn),也不能代替?zhèn)鹘y(tǒng)人工智能中基于符號的邏輯推理。另外,在解決閱讀理解的難題中,其實還需要常識知識,然而常識知識的邊界在哪里?常識知識是否會隨著時間而發(fā)生變化?這些都是閱讀理解式QA的挑戰(zhàn)。

  劉康認為,現(xiàn)在的深度問答正從傳統(tǒng)的符號信息檢索匹配到深度語義理解的變化中,需要對文本內容精準的理解,推理也變得越來越重要,同時問答的過程還需要知識庫、特別是常識知識庫的支持。此外,在開放環(huán)境中,用戶的問題復雜多樣,單一知識庫往往不足以滿足用戶的問題,還需要多個知識源的聯(lián)合與綜合利用。

  科學家、頭條實驗室技術總監(jiān)李磊介紹了一種QA模型,即基于條件的聚焦的神經(jīng)元網(wǎng)絡問答(Conditional Focused Neural Question Answering)。在國際計算機語言學協(xié)會(ACL)的2016年會上,李磊等人發(fā)表了基于大規(guī)模知識庫的CFO一文(CFO: Conditional Focused Neural Question Answering with Large-scale Knowledge Bases),詳細介紹了CFO的算法。CFO主要解決開放知識庫中單一答案的QA問題,在CFO之前的最好成績是由Facebook發(fā)明的自動問答算法,準確率在62.9%(基于Facebook創(chuàng)建的Simple Question Dataset公開數(shù)據(jù)集,內含108K個英文問題,也是公開的最大單一答案問題集)。而CFO則能在這個數(shù)據(jù)集上達到75%的準確率,與Facebook拉開了12%的差距。

  今日頭條還在2016年嘗試了新聞寫稿機器人Xiaomingbot,這是基于大數(shù)據(jù)、自然語言理解和機器學習的人工智能機器人。Xiaomingbot在2016年8月的里約奧運會期間自動寫了450多篇文章,產(chǎn)生了100多萬的閱讀,接近同期該平臺上體育新聞記者的稿件閱讀量。此外,Xiaomingbot寫出的稿件既有短消息也有按比賽時間線進程形成的長報道,還可以自動加入圖片。

  當然,提到深度問答就必然要提到IBM Watson。IBM中國研究院大數(shù)據(jù)機認知計算研究總監(jiān)蘇中介紹了在《危險邊緣》(Jeopardy!)中獲勝的基于大規(guī)模并行計算概率算法的Watson模型,如今IBM已經(jīng)把Watson的算法能力通過基于Bluemix的IBM Watson開發(fā)者云服務對外輸出。

  建立智能社會組織的模型

  2016機器智能前沿論壇上,最有意思也是最具有社會和商業(yè)價值的機器學習前沿方向,是來自美國Santa Fe Institute研究所的David Wolpert教授的智能社會組織建模研究。他也是IEEE院士、三本書和200多篇論文的作者,論文領域覆蓋了物理學基礎、機器學習、博弈論、信息理論、熱力學和分布優(yōu)化等。David Wolpert于1996年提出了“沒有免費的午餐”定理,現(xiàn)在已廣泛應用于機器學習領域。

  David Wolpert表示,除了人類自身之外,人類社會也是一個智能體。在人類社會當中有很多的互動交流以及各種活動,人類社會能夠處理信息、相互溝通,也能迅速了解在哪里可以獲取信息、信息如何被使用等。現(xiàn)在,人類社會作為整體的智能性已經(jīng)比個人大腦更為強大,所以對于智能社會組織的研究更加有意義,但這還是一個全新的領域,也只有初步的研究。

  從人類社會發(fā)展來看,人類的組織達到一定規(guī)模后,就難以再擴大。就像企業(yè)擴張到一定規(guī)模后,隨著層級越來越多,越難將信息準確地從頂層傳遞到底層,而隨著信息在中間層傳遞的失衡,將會導致信息誤傳,從而阻礙企業(yè)進一步擴大。當然,人類也在不斷嘗試對組織結構進行創(chuàng)新。以近代互聯(lián)網(wǎng)公司谷歌為代表,在公司初創(chuàng)期提出了扁平化的組織結構,然而隨著谷歌公司規(guī)模的不斷擴張,最終還是走向了多層級化的公司結構。

  那么,如何以一種扁平化的方式擴展公司規(guī)模,使得員工的溝通效率不受到層級增多的影響?這就需要找到一種方式,以更好的在企業(yè)組織間傳遞信息。在David Wolpert模擬企業(yè)結構的過程中,把員工的社會關系看成一種信息通信息網(wǎng)絡結構,員工則類似于信息通信網(wǎng)絡中的節(jié)點。網(wǎng)絡工程師的任務是要通過算法來優(yōu)化和設計信息通訊網(wǎng)絡的通信路徑,類似的方式引進到智能社會組織的研究中,就是如何實現(xiàn)一個更為智能的信息交換方式。

  在研究和設計智能社會組織的時候,需要考慮不少已經(jīng)存在的理論。其中一個著名的理論是Dunbar數(shù)字,由英國人類學家Robin Dunbar提出,即人類個體能夠和周圍的人維持穩(wěn)定社會關系的理論上限值,通常被認為是150人。這是因為在給定時間范圍內,一個人能夠同時傾聽其他人以及對其他人說不同事情的能力,受大腦皮層容量的限制。一旦超越這個范圍,就需要外在機制來維持群體的穩(wěn)定性和凝聚力。

  因此,把網(wǎng)絡通信的編碼和設計原理應用到類似企業(yè)這樣的社會組織中,就需要回答三個問題:受限于企業(yè)組織規(guī)模和溝通能力(類比網(wǎng)絡規(guī)模和邊緣通信能力),能夠從管理者傳達到工人(類比網(wǎng)絡發(fā)送端和接收端)的最大信息量;中層管理者(類比網(wǎng)絡里的中間節(jié)點)如何傳遞信息,以確保工人能最大化的接收信息(類比網(wǎng)絡的最大吞吐量);在企業(yè)里增加中層管理者(類比網(wǎng)絡里的中間節(jié)點)的收益。

  David Wolpert為此研究了多種機制,特別是借鑒了網(wǎng)絡中郵件傳輸?shù)臋C制。因為在復雜網(wǎng)絡環(huán)境下,一個郵件能夠得以快速的從一個發(fā)送端傳遞到另一個接收端,中間其實把郵件劃分為了不同的小數(shù)據(jù)包,再把這些小數(shù)據(jù)包通過不同網(wǎng)絡、不同主機快速接力式傳遞給終端,終端結點再把小數(shù)據(jù)包重新恢復成一個郵件。

  從David Wolpert的研究中,可以得到一些很有意思的發(fā)現(xiàn)。比如把社交媒體作為第三方公開公共節(jié)點來存儲部分信息,確保了企業(yè)組織的部分信息可以準確、高效傳遞到各個層級,各個層級再根據(jù)內部傳遞下來的其它信息自行組合,從而準確且個性化地“還原”出原始信息。這其實就是社會化組織的模式,相當于企業(yè)把部分節(jié)點從企業(yè)內部轉移到了社會上,相應地也把企業(yè)組織部分的社會化了。當然,這個理論也從另一角度驗證了社交媒體或社會化媒體崛起的必然邏輯。



評論


相關推薦

技術專區(qū)

關閉