谷歌TPU勢頭正勁 英偉達GPU突圍AI芯片勝算有幾分
2017臺北國際電腦展COMPUTEX 2017已經(jīng)于5月30日開幕。英偉達的創(chuàng)始人兼CEO黃仁勛在AI論壇上發(fā)表了演說,談到了英偉達的人工智能規(guī)劃。
本文引用地址:http://m.butianyuan.cn/article/201706/359971.htm今年5月9日,英偉達公布了第一季度的財報,第一季度營收19.4億美元,同比跳漲48.4%,凈收入5.07億美元,比去年同期跳漲126%。其中,游戲顯卡業(yè)務(wù)營收占了總營收的53%,仍然是英偉達的主力軍。但是數(shù)據(jù)中心業(yè)務(wù)收入翻倍至4.09億美元,汽車業(yè)務(wù)收入也增長了24%至1.4億美元。從去年起,數(shù)據(jù)中心和汽車業(yè)務(wù)加速發(fā)展,為提振股價起到了重要作用。黃仁勛曾表示,人工智能已經(jīng)到了變革的邊緣,最終將會有1萬億的設(shè)備擁有人工智能,而英偉達也正在變?yōu)槿斯ぶ悄芄尽?/p>
黃仁勛在5月30日的演講上談到,CPU的性能增長遇到瓶頸,成長空間僅剩10%,而基于GPU的運算具有極大的潛力,成為推動人工智能的關(guān)鍵技術(shù)。他表示,到2025年,GPU的性能將是現(xiàn)在的1000倍。
以GPU為基礎(chǔ)打入人工智能市場,英偉達一路高歌猛進,目前已經(jīng)是人工智能GPU第一大廠。十幾年前,人們開始將計算任務(wù)從CPU卸載到GPU,英偉達2006年推出了CUDA技術(shù),來解放GPU的計算能力,經(jīng)過多年的積累,目前CUDA+GPU已經(jīng)在深度學習方面表現(xiàn)出了極強的適應(yīng)性和強大的計算能力。
5月11日,英偉達在圣何塞的GPU技術(shù)大會上發(fā)布了新品Tesla V100,又稱Volta,號稱是史上最強的GPU加速器,專門針對服務(wù)器市場,用來處理需要強大計算能力支持的密集型HPC、AI和圖形處理任務(wù)。其運算架構(gòu)采用了臺積電12nm FFN制程,集成了211億個晶體管和5120個計算機內(nèi)核,并且配備了40個Tensor內(nèi)核,具有非常強大的深度學習性能。相對于之前的Pascal架構(gòu),深度學習訓練速遞提升了12倍,推理速度也提升了6倍。推理性能要比英特爾的Skylake CPU架構(gòu)快15到25倍。每秒處理浮點運算能達到120萬億次。
英偉達代表了GPU方向,那么另外兩個通往人工智能的重要方向——英特爾的CPU和谷歌的TPU又有什么樣的優(yōu)勢?
作為CPU全球霸主,英特爾在切入人工智能的時候依然要用CPU做武器。去年英特爾先后收購深度學習初創(chuàng)公司Nervana Systems(Nervana開發(fā)的Engine芯片在深度學習訓練方面具有優(yōu)于傳統(tǒng)GPU的能耗和性能優(yōu)勢)、機器視覺初創(chuàng)公司Movidius,還曾用167億的價格收購了FPGA制造商Alera。英特爾表示將在2017年推出深度學習專用芯片,速度比GPU快10倍,并且將在2020年之前將深度學習訓練速度提升100倍。目前英偉達的GPU炒得火熱,人們都在質(zhì)疑,關(guān)于人工智能,到底是CPU更合適,還是GPU更具有優(yōu)勢。
GPU包含多個流處理單元,更加擅長大規(guī)模的并行計算,適用于數(shù)據(jù)并行度高的計算密集型程序,對于AI這種編程框架,尤其是對圖形圖像的計算速度遠超CPU。因此GPU更適合訓練神經(jīng)網(wǎng)絡(luò),在AlphaGo給了人們更加深刻的關(guān)于人工智能的認知之后,GPU的優(yōu)勢也被放大。雖然GPU有著可怕的數(shù)據(jù)運算能力,但是CPU是中央處理器,是做通用計算的,對于并行程度要求低,對數(shù)據(jù)的依賴性不高,適合處理多樣的任務(wù)。在前期的數(shù)據(jù)獲取,例如圖像采集、人臉識別,以及后期的決策環(huán)節(jié)、和傳感器等渠道的信息綜合方面,CPU都具有明顯優(yōu)勢,而中間的過程靠GPU進行并行計算,這樣才能給出完整的人工智能路徑。二者的側(cè)重點不同,優(yōu)勢不同,但都是人工智能發(fā)展所不可或缺的。英偉達雖然掌握了GPU霸權(quán),英特爾的速度也慢了些,但是那幾起收購案不可小覷。
值得注意的是,最近升級版的AlphaGo再戰(zhàn)柯潔,谷歌的TPU也逐漸被越來越多的人了解。不像CPU、GPU發(fā)展多年,TPU是谷歌推出TensorFlow框架幾年后才研發(fā)出來的,是專門針對TensorFlow框架,服務(wù)于AI計算。由于排除了GPU中的其他部分,留下了專門處理AI的部分,因此TPU以其針對性和高效性被看好。那么TPU是否能夠碾壓GPU和CPU呢?
不久前的I/O大會上,谷歌的第二代TPU亮相。曾經(jīng)作為英偉達的客戶的谷歌,如今為了更高效地推進人工智能,自己研發(fā)專用芯片。第二代TPU能夠達到180 TFLOP/s的浮點性能,和傳統(tǒng)GPU相比提升15倍,比CPU提升30倍。另外谷歌還推出一個TPU pod陣列,能夠包含64顆二代TPU。與一代相比,二代除了提高計算能力之外,還提高了數(shù)據(jù)推理能力,前幾天AlphaGo的精彩表現(xiàn)就展示出了這一點。
但是英偉達指出,谷歌拿TPU和舊的GPU比是不合適的。另一方面,GPU是通用芯片,TPU則是專門為特定用途設(shè)計,只用來執(zhí)行單一工作的ASIC,因此二者并不具有太大的可比性。目前第二代TPU已經(jīng)能夠支持浮點運算,而且能達到180萬億次,已經(jīng)超越了英偉達Tesla V100,在人工智能的研究中,谷歌的TPU具有明顯優(yōu)勢。
谷歌這樣的巨頭有充分的資源用自己造的TPU來對特定的研發(fā)任務(wù)進行專用加速,但是未來的市場,物聯(lián)網(wǎng)深入布局,移動設(shè)備更加多樣,會有更廣泛旺盛的需求,也會有更多變的算法需要實現(xiàn)。因此未來的市場面臨的是,選擇功能強大的通用型芯片還是更加專業(yè)、有效的ASIC。英偉達的重心在技術(shù)落地和變現(xiàn),而谷歌則在全面探索人工智能。能夠高效率地解決更多的問題,就是工具的價值所在,目前圍繞AI芯片的所謂“三強爭霸”的說法并不準確,專注GPU的英偉達能否成為起AI芯片界的高通未可知,但是谷歌不會成為一個芯片公司。 不管是CPU、GPU還是TPU,都只是發(fā)展的必經(jīng)階段。二代TPU和Volta很快會被迭代,芯片本身要服務(wù)于計算,因此需要通過互相的借鑒和超越來互相推進,滿足日益增長的計算需求。未來也許還會出現(xiàn)針對不同計算需求的ASIC,也許也會出現(xiàn)一種或多種更加強大的通用型芯片。
評論