新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 英偉達(dá)花30億美元打造AI芯片 8塊售14.9萬(wàn)美元

英偉達(dá)花30億美元打造AI芯片 8塊售14.9萬(wàn)美元

作者: 時(shí)間:2017-05-12 來(lái)源:網(wǎng)易科技 收藏

  5月11日消息,據(jù)國(guó)外媒體VentureBeat報(bào)道,CEO黃仁勛今天發(fā)布了一款針對(duì)人工智能應(yīng)用的雄心勃勃的新處理器:Tesla V100。

本文引用地址:http://m.butianyuan.cn/article/201705/359098.htm

  該新芯片擁有210億個(gè)晶體管,性能比一年前發(fā)布的帶150億個(gè)晶體管的Pascal處理器強(qiáng)大得多。它是一款很大的芯片——815平方毫米,大小約為Apple Watch智能手表的表面。它擁有5120個(gè)CUDA(統(tǒng)計(jì)計(jì)算設(shè)備架構(gòu))處理核心,雙精度浮點(diǎn)運(yùn)算性能可達(dá)每秒7.5萬(wàn)億次。

  作為全球最大的圖形芯片和芯片廠商,總部位于加州圣克拉拉的在加州圣何塞舉行GPU技術(shù)大會(huì),并發(fā)布了上述產(chǎn)品。

  黃仁勛稱(chēng)英偉達(dá)花了30億美元打造這款芯片,基于8塊Tesla V100搭建的DGX-1也開(kāi)始預(yù)售,價(jià)格為149000美元,預(yù)計(jì)在今年第三季度交付。

  在介紹該款芯片之前,黃仁勛談到了近年的發(fā)展史。他指出,深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)研究大約5年前開(kāi)始帶來(lái)成果,那個(gè)時(shí)候研究人員開(kāi)始利用圖形處理器(GPU)來(lái)處理數(shù)據(jù),同時(shí)利用它們來(lái)快速訓(xùn)練神經(jīng)網(wǎng)絡(luò)。自那時(shí)起,深度學(xué)習(xí)技術(shù)呈現(xiàn)加速發(fā)展。今年,英偉達(dá)打算培訓(xùn)10萬(wàn)個(gè)開(kāi)發(fā)者使用該項(xiàng)技術(shù)。

  Tesla V100另稱(chēng)為Volta,針對(duì)深度學(xué)習(xí)而打造,Tensor性能可達(dá)每秒120萬(wàn)億次浮點(diǎn)運(yùn)算。它能夠每秒傳輸300GB的數(shù)據(jù),速度相當(dāng)于時(shí)下其它處理器的20倍。該款芯片由三星代工生產(chǎn)。

  該芯片針對(duì)深度學(xué)習(xí)訓(xùn)練的Tensor浮點(diǎn)運(yùn)算性能達(dá)到去年發(fā)布的Pascal處理器的12倍。這種處理速度很有必要,因?yàn)樯疃葘W(xué)習(xí)算法的進(jìn)展令人驚嘆。

  2015年,微軟打造了一個(gè)名為ResNet的深度學(xué)習(xí)項(xiàng)目,該項(xiàng)目非常復(fù)雜,需要每秒7百億億次浮點(diǎn)運(yùn)算的處理能力。百度2016年打造的Deep Speech 2 需要每秒20百億億次浮點(diǎn)運(yùn)算的處理能力,谷歌2017年打造的NMT則需要每秒105百億億次浮點(diǎn)運(yùn)算的處理能力。

  微軟正在開(kāi)發(fā)一個(gè)新的ResNet版本,ResNet會(huì)同時(shí)使用64個(gè)Tesla V100芯片來(lái)進(jìn)行處理。目前還不清楚Tesla V100批量出貨的時(shí)間。



關(guān)鍵詞: 英偉達(dá) AI

評(píng)論


相關(guān)推薦

技術(shù)專(zhuān)區(qū)

關(guān)閉