亞馬遜AWS發(fā)布新AI芯片,同時提供英偉達(dá)H200
11月29日消息,在美國時間周二舉辦的Reinvent大會上,亞馬遜旗下的云計算部門AWS發(fā)布了新的人工智能(AI)芯片,供客戶構(gòu)建和運行人工智能應(yīng)用程序,并計劃提供英偉達(dá)的最新芯片。
本文引用地址:http://m.butianyuan.cn/article/202311/453399.htmAWS正試圖以各種高性價比的選擇脫穎而出,成為云服務(wù)提供商。不過,它不會只銷售廉價的亞馬遜品牌產(chǎn)品。就像亞馬遜的在線零售市場一樣,亞馬遜的云計算服務(wù)也將提供來自其他供應(yīng)商的頂級產(chǎn)品,包括頂級人工智能芯片制造商英偉達(dá)的GPU。
自人工智能初創(chuàng)企業(yè)OpenAI去年發(fā)布ChatGPT聊天機器人以來,英偉達(dá)GPU的需求就不斷飆升。ChatGPT聊天機器人具有總結(jié)信息和撰寫類似真人文本的能力,令人們驚嘆不已。這導(dǎo)致英偉達(dá)的芯片短缺,因為各家公司都在競相將類似的生成式人工智能技術(shù)整合到自己的產(chǎn)品中。
亞馬遜選擇了雙管齊下戰(zhàn)略,既生產(chǎn)自己的芯片,又允許客戶使用英偉達(dá)的最新芯片,這可能會幫助它對抗云計算領(lǐng)域的頭號競爭對手微軟。本月早些時候,微軟也采取了類似的做法,發(fā)布了其首款人工智能芯片Maia 100,并表示Azure云將采用英偉達(dá)H200 GPU。
具體來說,AWS表示,它將提供英偉達(dá)最新H200人工智能圖形處理單元。該公司還發(fā)布了新的Trainium2人工智能芯片和通用Graviton4處理器。
新的H200 GPU是H100的升級版,OpenAI曾使用H100來訓(xùn)練其最先進(jìn)的大語言模型GPT-4。大型公司、初創(chuàng)公司和政府機構(gòu)都在爭奪有限的芯片供應(yīng),這意味著從亞馬遜等云服務(wù)提供商那里租用芯片的需求也很高。英偉達(dá)表示,H200的輸出速度將是H100的近兩倍。
亞馬遜自己的Trainium2芯片是為訓(xùn)練人工智能模型而設(shè)計的,包括支持OpenAI ChatGPT等人工智能聊天機器人及其競爭對手運行的基礎(chǔ)模型。亞馬遜表示,初創(chuàng)公司Databricks和OpenAI的競爭對手、亞馬遜支持的Anthropic計劃用新的Trainium2芯片構(gòu)建模型,新模型的性能將比原來的模型提高四倍。
Graviton4處理器基于Arm架構(gòu),比英特爾或AMD的芯片能耗更低。Graviton4承諾比現(xiàn)有的Graviton3芯片性能提高30%,從而實現(xiàn)AWS所說的更高的價格產(chǎn)出。由于通貨膨脹率始終高于往常,這促使央行提高利率,那些希望繼續(xù)使用AWS,但為降低云服務(wù)賬單以更好應(yīng)對經(jīng)濟問題的組織可能希望考慮遷移到Graviton上。
亞馬遜表示,超過5萬名AWS客戶已經(jīng)在使用Graviton芯片。
最后,作為與英偉達(dá)加深合作關(guān)系的一部分,AWS表示,它將運營超過16000顆英偉達(dá)GH200 Grace Hopper超級芯片,這些芯片包含英偉達(dá)GPU和基于Arm架構(gòu)的通用處理器。英偉達(dá)自己的研發(fā)團隊和AWS客戶都將能夠利用這一基礎(chǔ)設(shè)施。
自2006年推出用于計算和存儲數(shù)據(jù)的EC2和S3服務(wù)以來,AWS已經(jīng)推出了200多種云產(chǎn)品。當(dāng)然,并不是所有服務(wù)都大獲成功,有些版本已經(jīng)很長時間沒有更新,而少數(shù)版本已經(jīng)停產(chǎn),從而讓亞馬遜釋放并重新分配資源。然而,該公司仍在繼續(xù)投資Graviton和Trainium項目,這表明亞馬遜已經(jīng)意識到了需求。
AWS沒有宣布搭載英偉達(dá)H200芯片的虛擬機實例的發(fā)布日期,也沒有宣布使用其Trainium2芯片的虛擬機實例的發(fā)布日期。不過,客戶現(xiàn)在就可以開始測試Graviton4的虛擬機實例,幾個月后就可以投入商業(yè)使用。
評論