物聯(lián)網(wǎng)的下一站是人工智能
2016年7月爆出了舉世震驚的軟銀234億英鎊收購ARM公司事件,軟銀首席執(zhí)行官孫正義就此表示,這一收購標志著軟銀的一次“范式轉(zhuǎn)變”——投資物聯(lián)網(wǎng)。誠然,ARM作為壟斷了智能手機業(yè)的芯片設(shè)計公司,最近一兩年來正積極向物聯(lián)網(wǎng)拓展。
本文引用地址:http://m.butianyuan.cn/article/201608/295418.htm然而,ARM僅僅提供物聯(lián)網(wǎng)芯片的設(shè)計,即便真如Gartner所預(yù)測在2020年將有260億物聯(lián)網(wǎng)設(shè)備,但這也只是物聯(lián)網(wǎng)的物理基礎(chǔ)。如何對這260億物聯(lián)設(shè)備7×24源源不斷產(chǎn)生出來的數(shù)據(jù)進行分析、判斷和商業(yè)變現(xiàn),單靠人工則遠遠不能滿足這一需求,而必須依靠自動化的算法,這就是Gartner所積極倡導(dǎo)的算法經(jīng)濟。
人工智能將成主流商業(yè)競爭策略
為什么說人工智能將成主流商業(yè)競爭策略?這是因為在算法經(jīng)濟時代,人工智能是終極算法,對終極算法的追求必將成為主流商業(yè)競爭策略。
在華盛頓大學(xué)教授Pedro Domingos的2015年新書《終極算法》中,有這樣論斷:“終極算法”就是通過機器學(xué)習(xí)的方式,自動發(fā)現(xiàn)和創(chuàng)造其它所有算法的“主算法”。這個所謂的“主算法”是單一的、全球通用的算法,這個“主算法”對于生物界來說是人類大腦,對于以物聯(lián)網(wǎng)為基礎(chǔ)的機器世界來說就是人工智能。
在過去60年間,全球最頂尖的科學(xué)家們一直在研究如何用數(shù)學(xué)的方式來模擬人類的智能。早期可證明《數(shù)學(xué)原理》的“邏輯理論家”程序讓機器具備邏輯推理能力,中期的專家系統(tǒng)讓機器能獲得人類的知識,再到后來旨在讓機器自主學(xué)習(xí)知識的機器學(xué)習(xí)算法,科學(xué)家們對人工智能的探索一直沒有停止。
進入到2016年,也是人工智能學(xué)科誕生60周年之際,基于深度學(xué)習(xí)的機器學(xué)習(xí)算法成為人工智能主流,而深度學(xué)習(xí)的核心就是多層深度神經(jīng)元網(wǎng)絡(luò)DNN,這也是目前主流科學(xué)家能達到的最為成熟的機器智能。
2016年7月21日,技術(shù)解決方案提供商SoftServe發(fā)布了Big Data Snapshot 研究報告,研究顯示 62% 的大中型公司希望在未來的兩年內(nèi)能將機器學(xué)習(xí)用于商業(yè)分析。這意味著商用多層深度神經(jīng)元網(wǎng)絡(luò)DNN,即將成為各大企業(yè)追逐的主流商業(yè)競爭策略。
硬件進步推動人工智能商用
我們正在進入人工智能的商用時代。經(jīng)過60年的發(fā)展,基于DNN的人工智能已經(jīng)從高校和實驗室走進了企業(yè),并從企業(yè)擴散向千家萬戶。谷歌今年剛發(fā)布的智能硬件Google Home、即將量產(chǎn)的阿里互聯(lián)網(wǎng)汽車、微軟人工智能助理Cortana等,都是基于DNN的規(guī)?;虡I(yè)應(yīng)用。
在更為廣泛的傳統(tǒng)企業(yè)應(yīng)用層面,一場大規(guī)模的人工智能商用化正在開始,這是基于硬件的進步,其中一個顯著的進步是GPU在人工智能商用中的崛起?!哆B線》雜志在2015年底發(fā)表了一篇名為《與Google競爭,F(xiàn)acebook開源了人工智能硬件》文章中談及GPU在人工智能商用時代的崛起。現(xiàn)在,F(xiàn)acebook、Google、微軟、百度等大型互聯(lián)網(wǎng)公司正在轉(zhuǎn)向利用GPU完成人工智能商業(yè)應(yīng)用。
在過去,算法模型依靠CPU計算得出,但人工智能算法的獨特性在于分布式并行計算,這并非基于串行計算的CPU所擅長。實際上針對圖形圖像處理的GPU從一開始就是大規(guī)模并行計算,這也是為什么斯坦福大學(xué)的吳恩達教授會考慮采用GPU優(yōu)化人工智能算法的初衷。研究表明,12 顆 NVIDIA GPU 可以提供相當于2,000 顆 CPU 的深度學(xué)習(xí)性能。
盡管從長期來看,開發(fā)真正的人工智能芯片依然是全球?qū)W界與企業(yè)界共同需要完成的任務(wù),但那仍需要很長時間的探索與實驗。從當前人工智能商業(yè)化需求來看,把GPU用于人工智能商用顯然具有極大的優(yōu)勢。這就是2016年4月,NVIDIA推出基于GPU的全球首款深度學(xué)習(xí)超級計算機DGX-1的原因。
首款GPU深度學(xué)習(xí)超級計算機
首款GPU深度學(xué)習(xí)超級計算機NVIDIA DGX-1基于 NVIDIA Tesla P100 GPU,該 GPU 采用2016年最新的 NVIDIA Pascal GPU 架構(gòu)。Pascal是第五代GPU架構(gòu),于兩年前的GPU技術(shù)大會(GTC)上公布,產(chǎn)品將于2016年上市,這就是Tesla P100 GPU。
作為新一代GPU架構(gòu),Pascal相比于前一代的Maxwell有較大的性能提升。根據(jù)NIVIDIA的數(shù)據(jù),Pascal GPU 在訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的性能方面有1個數(shù)量級的提高。2015年GTC大會上,用4顆Maxwelll GPU訓(xùn)練Alexnet深度神經(jīng)網(wǎng)絡(luò)需要25小時,到了2016年GTC大會上用8顆Pascal GPU則只用2小時;對比英特爾雙路至強E5服務(wù)器訓(xùn)練Alexnet網(wǎng)絡(luò)需要150個小時,而DGX-1只需要2個小時。
評論