NVIDIA看準(zhǔn)趨勢(shì) 成功轉(zhuǎn)型為AI芯片商
過去幾年桌上型電腦(DT)與筆記型電腦(NB)銷售量大幅下滑,英特爾(Intel)的年成長率也下滑至9%,市場展望似乎對(duì)電腦芯片制造商不利,不過就在英特爾CPU銷量持續(xù)下滑的同時(shí),NVIDIA的GPU卻穩(wěn)步成長,2016年第4季營收甚至大增55%,當(dāng)然這和電腦游戲沒有太大關(guān)系,而是歸功于人工智能(AI)市場的爆發(fā)。
本文引用地址:http://m.butianyuan.cn/article/201709/364520.htm根據(jù)PCMag報(bào)導(dǎo),PC時(shí)代早期,電腦性能主要與CPU數(shù)量及可用的隨機(jī)存取存儲(chǔ)器(RAM)有關(guān),隨著圖形密集應(yīng)用和游戲的興起,專為加快圖框緩沖(framebuffer)圖像建立速度的GPU開始嶄露頭角。而摩爾定律(Moore’s Law)的腳步則已放緩,英特爾無法單靠提高芯片上電晶體數(shù)量的優(yōu)勢(shì)繼續(xù)稱霸市場。
讓NVIDIA GPU再度火熱的原因與深度學(xué)習(xí)有關(guān)。深度學(xué)習(xí)是一種用于AI和認(rèn)知運(yùn)算的先進(jìn)機(jī)器學(xué)習(xí)技術(shù),也是自駕車、影像辨識(shí)、語音辨識(shí)以及氣候預(yù)測模型所不可或缺的技術(shù)。如同多數(shù)演算法,深度學(xué)習(xí)也仰賴進(jìn)階的數(shù)學(xué)和統(tǒng)計(jì)運(yùn)算,并試圖透過不同神經(jīng)網(wǎng)路類型來模擬人類腦部的功能。例如語音助理使用自然語言處理,就是使用遞回式類神經(jīng)網(wǎng)路(Recurrent Neural Network),而影像辨識(shí)及臉部偵測則使用卷積式類神經(jīng)網(wǎng)路(Convolutional Neural Network)。
要訓(xùn)練AI識(shí)別影像中的物體或分析股市資料,就必須將數(shù)據(jù)解碼為一組數(shù)字然后執(zhí)行矩陣乘法,這是序列運(yùn)算的CPU無法做到的,而解決這個(gè)問題的最佳方案就是使用高達(dá)5,000個(gè)微核心的GPU執(zhí)行平行處理。
此外NVIDIA執(zhí)行長黃仁勛的遠(yuǎn)見及賭注也是推動(dòng)其GPU成為深度學(xué)習(xí)和AI研究人員歡迎的原因。大約10年前NVIDIA注意到用戶使用其繪圖芯片計(jì)算復(fù)雜的投資以及氣候模型,因此決定投入統(tǒng)一計(jì)算架構(gòu)(Compute Unified Device Architecture;CUDA)的研發(fā),據(jù)紐約時(shí)報(bào)報(bào)導(dǎo),NVIDA的CUDA計(jì)劃,至今已投入100億美元,目的就是將GPU轉(zhuǎn)化為更通用的運(yùn)算工具。
CUDA是一個(gè)平行運(yùn)算平臺(tái)及程式設(shè)計(jì)模型,透過圖形處理單元大幅提升運(yùn)算性能,幫助使用者針對(duì)不同任務(wù)設(shè)計(jì)程式。盡管面對(duì)ATI、超微(AMD)在GPU市場的激烈競爭,NVIDIA仍舊把賭注放在CUDA上,后來也證明這樣的做法是正確的,當(dāng)云端運(yùn)算、大數(shù)據(jù)和AI開始展現(xiàn)動(dòng)能時(shí),NVIDIA的芯片恰好符合這些運(yùn)算的需求。
不過NVIDIA不可以目前的成就自滿,畢竟英特爾與Google正急起直追,前者以160億美元收購FPGA芯片大廠AItera及專門設(shè)計(jì)AI芯片的新創(chuàng)公司Nervana,后者則開發(fā)了支援其語音辨識(shí)平臺(tái)及AlphaGo的特殊應(yīng)用集成電路TPU。
評(píng)論