人工智能時代,谷歌、英特爾和英偉達之間的計算能力角逐戰(zhàn)
2001年6月26日,著名導演史蒂文·斯皮爾伯格執(zhí)導的《人工智能》(英文名:《AI》)在美國上映。影片講述的是機器人小男孩大衛(wèi)為了尋找養(yǎng)母,并縮短機器人與人類的差距而奮斗的故事。
本文引用地址:http://m.butianyuan.cn/article/201706/360286.htm《人工智能》電影劇照
大衛(wèi)是一個被輸入情感程序的機器人男孩,Cybertronics Manufacturing公司員工亨瑞和他妻子制造出的一個試驗品。他們收養(yǎng)了大衛(wèi),并給了他足夠的愛,但是人類與機器都無法接受大衛(wèi)。于是大衛(wèi)踏上旅程去尋找真正屬于自己的地方,渴望成為一個真正意義上的人。
在這部影片上映15年后,機器人還沒有成為真正意義上的人, 但人工智能在圍棋領(lǐng)域戰(zhàn)勝了人類。它的強大和超強的進化能力,讓人類棋手難以望其項背。
AlphaGo以3:0戰(zhàn)勝柯潔九段
“AlphaGo Master比AlphaGo Lee(與李世石對戰(zhàn)的版本)要強大,Master在對戰(zhàn)中耗費的能力(性能和功耗)僅是Lee版本的十分之一,需要4個TPU在單臺電腦上運行即可?!癉eepMind首席科學家David Silver在AlphaGo 戰(zhàn)勝李世石后這樣解釋說。
AlphaGo強大到令人絕望,引發(fā)了“人工智能威脅人類”的討論。但在本質(zhì)上,人工智能是算法、數(shù)據(jù)和硬件三個要素綜合的結(jié)果。
一旦涉及到算法、數(shù)據(jù),就離不開計算。在這個領(lǐng)域,用來計算的硬件主要是TPU、GPU和CPU,他們背后代表的公司則分別是谷歌、英偉達和英特爾。這幾家公司彼此競爭,又互相需要。
TPU(Tensor Processing Unit)是專為機器學習而定制的芯片,經(jīng)過了專門深度機器學習方面的訓練。谷歌工程師Norm Jouppi介紹,在人工智能相關(guān)的算法上,它的計算速度更快,計算結(jié)果更精準,同時也更加節(jié)能。
谷歌在I/O 2017上發(fā)布第二代Cloud TPU
人工智能依賴于機器學習(Machine Learning),機器學習又依賴于硬件,它需要硬件平臺提供大量的運算資源。就計算效率來說,專用工具的計算效率遠高于通用工具。專門為機器學習定制而出現(xiàn)的谷歌的TPU就是一種專用的工具,業(yè)內(nèi)普遍認為它的出現(xiàn)對于通用工具GPU來說是一種威脅。
GPU的設(shè)計初衷不是主要用來進行神經(jīng)網(wǎng)絡(luò)運算,而是圖像處理。由于其特殊的構(gòu)造碰巧也比較適用于神經(jīng)網(wǎng)絡(luò)運算,所以在TPU出現(xiàn)之前,大多數(shù)做機器學習廠商都在同時利用FPGA和GPU來改進訓練自己的神經(jīng)網(wǎng)絡(luò)算法。
英偉達創(chuàng)始人兼CEO黃仁勛卻不認同“TPU威脅論”,在接受鳳凰科技的采訪時,他表示谷歌的TPU不會對英偉達的Volta GPU構(gòu)成威脅,雙方在TensorFlow項目上保持著合作,而Volta GPU的運算能力甚至在TPU之上。
作為世界最大的GPU制造商之一,英偉達一直不遺余力地推廣GPU在深度學習領(lǐng)域的應(yīng)用。老黃將英偉達稱為“一家人工智能公司”。
談到英偉達基于GPU的人工智能戰(zhàn)略,需要先從Volta說起。
在今年5月11日的NVIDIA GTC 2017上,英偉達推出了全新的GPU架構(gòu)Volta。英偉達應(yīng)用深度學習研究副總裁Bryan Catanzaro表示這并不是前代架構(gòu)Pascal的升級,而是一個全新的架構(gòu)。Volta提供大量的FLOP(浮點運算),基于Volta的架構(gòu),人們就可以使用需要更多FLOP的深度學習模型。如今很多流行的模型都需要很大的計算資源,例如卷積學習神經(jīng)網(wǎng)絡(luò)。
黃仁勛展示基于Volta架構(gòu)的Tesla V100加速芯片
基于全新的Volta架構(gòu),英偉達推出Tesla V100加速器,它速度比其前身Tesla P100快2.4倍。
Tesla V100凝聚了英偉達內(nèi)部數(shù)千名工程師數(shù)年的開發(fā),研發(fā)投入相當于30億美金。黃仁勛在NVIDIA GTC 2017的主題演講中,展示了一塊Tesla V100,他笑稱全世界唯一一塊就在他手上,如果有人想買的話,那么價格就是30億美金。
而在Tesla V100加速器基礎(chǔ)上,英偉達推出了超級計算機DGX-1V和HGX。
DGX-1V內(nèi)置了8塊Tesla V100,黃仁勛表示“DGX-1V相當于400個服務(wù)器”,過去Titan X(GTX TITAN X,泰坦顯卡)需要花費8天訓練的神經(jīng)網(wǎng)絡(luò),DGX-1V只需要8個小時,性能提升了24倍。
HGX是英偉達和微軟聯(lián)合開發(fā)的云圖形加速器,是英偉達人工智能戰(zhàn)略的硬件支撐。它同樣內(nèi)置了8塊Tesla V100。目前微軟的Project Olympus計劃、Facebook的Big Basin系統(tǒng)都是使用的HGX作為數(shù)據(jù)中心設(shè)計方案的核心。
黃仁勛在臺北國際電腦展的主題演講中表示,GPU的運算能力提升非???,能在未來取代CPU成為最主要的人工智能芯片。
但是英特爾并不這么認為。臺北國際電腦展期間,英特爾數(shù)據(jù)中心全球銷售部產(chǎn)品和技術(shù)總經(jīng)理陳葆立在接受鳳凰科技采訪時提到, TPU和GPU只是加速芯片,目前是無法獨立工作的,沒有CPU它跑不起來。
“不管是AMD或者是ARM出的CPU,都是不能直接連接到英偉達的GPU的,連接的標準是PCIE(這屬于英特爾),傳輸速度取決于PCIE的速度。但是目前我們自己的芯片組合可以跳過PCIE,所以能比CPU+GPU更快?!彼f。
在收購Nervana之后,英特爾擁有了將至強融核處理器和FPGA兩個不同的芯片整合成一個芯片的能力。在最新的Nervana系統(tǒng)中,就包含了FPGA加速芯片Arria 10和至強融核處理器的整合。
Arria 10就是一款主流的Altera FPGA產(chǎn)品
FPGA最初是從專用集成電路發(fā)展起來的半定制化的可編程電路,它可以作為一種用以實現(xiàn)特殊任務(wù)的可再編程芯片應(yīng)用與機器學習中。
譬如百度的機器學習硬件系統(tǒng)就是用FPGA打造了AI專有芯片,制成FPGA版百度大腦。FPGA比相同性能水平的硬件系統(tǒng)消耗能率更低,在刀片式服務(wù)器上可以由主板上的PCI Express總線供電。使用FPGA可以將一個計算得到的結(jié)果直接反饋到下一個,不需要臨時保存在主存儲器,所以存儲帶寬要求也在相應(yīng)降低。
英特爾的方案是將CPU與FPGA融合起來,組合芯片的運算更加靈活和高效,同時還能實現(xiàn)最低的功耗,獲得性能和功耗的平衡。
在采訪的最后陳葆立提到,雖然是不同的硬件平臺,但是大家都在想辦法融合,這有利于幫助開發(fā)者,從而真正幫助人工智能向前發(fā)展。
評論