新聞中心

EEPW首頁(yè) > 嵌入式系統(tǒng) > 設(shè)計(jì)應(yīng)用 > AI芯片:現(xiàn)實(shí)版螳螂捕蟬黃雀在后

AI芯片:現(xiàn)實(shí)版螳螂捕蟬黃雀在后

作者: 時(shí)間:2018-08-01 來(lái)源:網(wǎng)絡(luò) 收藏

谷歌的無(wú)人車(chē)在美國(guó)開(kāi)了幾十萬(wàn)公里,通過(guò)訓(xùn)練練出一個(gè)自動(dòng)駕駛的AI模型。這個(gè)模型訓(xùn)練出來(lái)之后,未來(lái)可以部署到每一臺(tái)量產(chǎn)的谷歌無(wú)人車(chē),實(shí)現(xiàn)自動(dòng)駕駛。在自動(dòng)駕駛中,這個(gè)AI模型就必須實(shí)時(shí)進(jìn)行推斷。

本文引用地址:http://m.butianyuan.cn/article/201808/384752.htm

圖片來(lái)自網(wǎng)絡(luò)

Q1的財(cái)報(bào)發(fā)布后幾小時(shí),股價(jià)就暴漲14%。

老黃的Keynote還沒(méi)講完,市值就被推高20%,突破700億美元。

華爾街瘋狂的背后,是人工智能的大潮,與推動(dòng)這一大潮的全新技術(shù)。

最新的GPU芯片——TeslaV100及其TensorCore,必將讓這科技的大潮又起一層浪。

眼看著英偉達(dá)在這人工智能的浪潮中一騎絕塵,它的技術(shù)到底能有多厲害?難道其他芯片巨頭就真的在吃干飯嗎?

今天,我們特意邀請(qǐng)到兩位芯片領(lǐng)域的專(zhuān)家,專(zhuān)門(mén)來(lái)聊聊英偉達(dá)的新技術(shù),以及這場(chǎng)大戰(zhàn)的關(guān)鍵看點(diǎn)。

英偉達(dá)領(lǐng)先多少

昨天以前,英偉達(dá)在深度學(xué)習(xí)芯片領(lǐng)域已經(jīng)非常領(lǐng)先了,但是還不是遙不可及。

但在一口氣發(fā)布的7個(gè)產(chǎn)品和計(jì)劃后,特別是其中的TeslaV100,確實(shí)震撼??梢哉f(shuō),大大拉開(kāi)了它與競(jìng)爭(zhēng)對(duì)手的距離。

這不由得讓人想起90年代,思科成為互聯(lián)網(wǎng)第一波紅利的最大獲益者。現(xiàn)在AI時(shí)代的到來(lái),盡管我們還不知道它這一輪到底能沖多高,但大家都還在摩拳擦掌、買(mǎi)槍買(mǎi)炮。

而英偉達(dá)卻第一時(shí)間成為一家獨(dú)大的軍火商,肯定是AI第一波紅利的最大獲益者。

英偉達(dá)在GTC大會(huì)推出的全新GPU,確實(shí)在技術(shù)上劃了時(shí)代,吊打所有對(duì)手。

通用的GPU單元,專(zhuān)門(mén)的Tensor加速器,矩陣運(yùn)算絕對(duì)性能爆炸,同時(shí)還兼顧其他算法。不愧是英偉達(dá)憑借多年在深度學(xué)習(xí)領(lǐng)域的積累、對(duì)需求深刻洞察之后推出的心血大作,比上一代強(qiáng)大十倍的性能,既適合訓(xùn)練又適合部署。

就此,老黃已直接對(duì)絕大多數(shù)做深度學(xué)習(xí)芯片的創(chuàng)業(yè)項(xiàng)目宣判了死刑。

為什么GPU就適合AI?

我們來(lái)科普一下。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種技術(shù),基于深度神經(jīng)網(wǎng)絡(luò),這一輪AI主要就是深度學(xué)習(xí)技術(shù)突破引領(lǐng)的。

而深度學(xué)習(xí)里面絕大多數(shù)的運(yùn)算都是矩陣運(yùn)算,矩陣運(yùn)算天生就容易并行,而GPU最擅長(zhǎng)的就是做并行數(shù)學(xué)計(jì)算,所以特別適合做深度學(xué)習(xí)。

2012年的時(shí)候,Geoffrey Hinton的學(xué)生Alex Krizhevsky用GPU來(lái)做深度學(xué)習(xí),并且取得了ImageNet大賽冠軍。經(jīng)過(guò)他們的評(píng)測(cè),用GPU比CPU快60倍。

人工智能研究者一找上GPU,英偉達(dá)立馬抓住機(jī)會(huì),短時(shí)間內(nèi)動(dòng)用數(shù)千工程師、投入20億美元,研發(fā)出第一臺(tái)專(zhuān)門(mén)為深度學(xué)習(xí)優(yōu)化的Pascal GPU。所以,在深度學(xué)習(xí)大行其道的今天,英偉達(dá)就成了大贏家了。而深度學(xué)習(xí)中GPU的應(yīng)用,有這兩個(gè)場(chǎng)景:一個(gè)是訓(xùn)練,一個(gè)是部署。所謂訓(xùn)練,就是AI的構(gòu)建過(guò)程,研究員在線下通過(guò)喂給AI算法大量的數(shù)據(jù),產(chǎn)生出一個(gè)模型。而部署,就是把訓(xùn)練好的這個(gè)模型拿到應(yīng)用現(xiàn)場(chǎng)去用,去做推斷。

比如說(shuō),谷歌的無(wú)人車(chē)在美國(guó)開(kāi)了幾十萬(wàn)公里,通過(guò)訓(xùn)練練出一個(gè)自動(dòng)駕駛的AI模型。這個(gè)模型訓(xùn)練出來(lái)之后,未來(lái)可以部署到每一臺(tái)量產(chǎn)的谷歌無(wú)人車(chē),實(shí)現(xiàn)自動(dòng)駕駛。在自動(dòng)駕駛中,這個(gè)AI模型就必須實(shí)時(shí)進(jìn)行推斷。

訓(xùn)練階段,我們主要關(guān)心的是大規(guī)模的計(jì)算吞吐率,而到了部署中,更強(qiáng)調(diào)的是絕對(duì)的計(jì)算能力、低延遲、高性能功耗比、高穩(wěn)定性。

現(xiàn)在在AI界,訓(xùn)練模型普遍采用英偉達(dá)的GPU,但是到了部署領(lǐng)域呢,有人用GPU,有人用谷歌的TPU,有人用,還有一大批嵌入式芯片開(kāi)發(fā)商正在開(kāi)發(fā)專(zhuān)用的前端深度學(xué)習(xí)芯片。

但是,剛剛發(fā)布的V100,既適合做訓(xùn)練,又適合做推斷,除了功耗較大以外,在能力方面實(shí)現(xiàn)了左右通殺,所以確實(shí)厲害。

另外,英偉達(dá)還有一個(gè)專(zhuān)門(mén)用來(lái)部署的運(yùn)行時(shí)環(huán)境叫TeslaRT。所以英偉達(dá)在領(lǐng)域真有點(diǎn)一騎絕塵的架勢(shì)了。

難道無(wú)人能擋英偉達(dá)?

這么大的一塊蛋糕,總得多有幾個(gè)人來(lái)分才熱鬧,就算英偉達(dá)現(xiàn)在的優(yōu)勢(shì)不容置疑,那接下來(lái)的疑問(wèn)就是,它的優(yōu)勢(shì)究竟能持續(xù)多久?

谷歌TPU

幾天前,在谷歌TPU團(tuán)隊(duì)出走半數(shù)后,計(jì)算機(jī)體系架構(gòu)的宗師DavidPatterson宣布他要加入谷歌,正式參與TPU項(xiàng)目。

上個(gè)月,谷歌關(guān)于TPU性能的論文披露說(shuō),TPU運(yùn)行速度是英偉達(dá)和相關(guān)處理器的15-30倍,能效高出30-80倍。

谷歌的TPU適用于部署,能跟谷歌自家的TensorFlow緊密結(jié)合??上情]源的,谷歌視它為核心競(jìng)爭(zhēng)力,應(yīng)該不會(huì)開(kāi)放給別人用。

TPU的第一版很驚艷,不過(guò)缺點(diǎn)也很多。現(xiàn)在從谷歌的論文來(lái)看,這個(gè)架構(gòu)有點(diǎn)過(guò)時(shí),實(shí)踐當(dāng)中也會(huì)有很大局限性。雖說(shuō)這次DavidPatterson加入谷歌TPU團(tuán)隊(duì)的動(dòng)靜很大,但我們還是應(yīng)當(dāng)保持冷靜、繼續(xù)觀察。

另一個(gè)能跟英偉達(dá)叫板的,就是老牌芯片巨頭英特爾,但它的CPU擅長(zhǎng)高速處理數(shù)字,卻不擅長(zhǎng)處理音視頻等非結(jié)構(gòu)化數(shù)據(jù)。

于是在去年,英特爾耗資4億美元收購(gòu)深度學(xué)習(xí)初創(chuàng)企業(yè)Nervana,試圖通過(guò)Nervana Systems在硅層實(shí)現(xiàn)機(jī)器學(xué)習(xí)。今年3月,這家土豪又怒砸153億美元收購(gòu)一家以色列芯片公司Mobileye,土豪要用自己家的高性能計(jì)算和網(wǎng)絡(luò)連接能力,結(jié)合Mobileye的計(jì)算機(jī)視覺(jué)專(zhuān)業(yè)技術(shù),打造從云端直達(dá)每輛汽車(chē)的無(wú)人駕駛解決方案,深化它在自動(dòng)駕駛領(lǐng)域的布局。

收購(gòu)Nervana,是英特爾非常厲害的一招。因?yàn)?,這家公司前幾年一直在幫英偉達(dá)優(yōu)化GPU平臺(tái)。他們是一群頂級(jí)黑客團(tuán)隊(duì),hack了GPU的native指令集,寫(xiě)出了比當(dāng)時(shí)的cudnn(NVIDIA自己的深度學(xué)習(xí)數(shù)學(xué)庫(kù))還要快若干倍的數(shù)學(xué)庫(kù)。他們的成果都開(kāi)源給了社區(qū),cudnn后面的進(jìn)步很大程度是因?yàn)槲樟诉@些成果。這家公司被英特爾收購(gòu)后,就斷了繼續(xù)為英偉達(dá)提供服務(wù)的可能,同時(shí)也極大增強(qiáng)了英特爾的實(shí)力。

英特爾現(xiàn)在是allinAI,它的幾大產(chǎn)品線,都會(huì)重點(diǎn)針對(duì)深度學(xué)習(xí)進(jìn)行專(zhuān)門(mén)定制,比如之前作為HPC平臺(tái)的XeonPhi加速計(jì)算卡,收購(gòu)的AlteraFPGA,包括NervanaSystem,都是各自獨(dú)立的深度學(xué)習(xí)產(chǎn)品線。其他還包括IoT部門(mén),還有收購(gòu)的Movidius公司,這些是提供嵌入式和端的解決方案。

小編聽(tīng)完,真是眼界大開(kāi)。

這樣來(lái)看,在深度學(xué)習(xí)芯片上,英偉達(dá)一馬當(dāng)先,英特爾黃雀在后,而谷歌的TPU,還真是任重而道遠(yuǎn)啊。



關(guān)鍵詞: AI芯片 英偉達(dá) 英特爾

評(píng)論


相關(guān)推薦

技術(shù)專(zhuān)區(qū)

關(guān)閉