微軟推出自己的人工智能芯片,注重于成本
微軟周三在西雅圖舉行的 Ignite 會議上推出了兩款芯片。
本文引用地址:http://m.butianyuan.cn/article/202311/453265.htm第一個是 Maia 100 人工智能芯片,可以與 Nvidia 的芯片競爭備受追捧的人工智能圖形處理單元。 第二個是 Cobalt 100 Arm 芯片,針對通用計算任務(wù),可以與英特爾處理器競爭。
現(xiàn)金充裕的科技公司已經(jīng)開始為客戶提供更多云基礎(chǔ)設(shè)施選擇,讓他們可以用來運(yùn)行應(yīng)用程序。 阿里巴巴,亞馬遜和谷歌多年來一直這樣做。 據(jù)一項(xiàng)估計,截至 10 月底,微軟擁有約 1,440 億美元現(xiàn)金,到 2022 年,其云市場份額將達(dá)到 21.5%,僅次于亞馬遜。
公司副總裁 Rani Borkar 在接受 CNBC 采訪時表示,在 Cobalt 芯片上運(yùn)行的虛擬機(jī)實(shí)例將于 2024 年通過微軟的 Azure 云實(shí)現(xiàn)商業(yè)化。 她沒有提供發(fā)布 Maia 100 的時間表。
谷歌2016 年,亞馬遜宣布了其原創(chuàng)的 AI 張量處理單元。
Web Services 于 2018 年推出了基于 Graviton Arm 的芯片和 Inferentia AI 處理器,并于 2020 年推出了用于訓(xùn)練模型的 Trainium。
當(dāng) GPU 短缺時,云提供商的特殊 AI 芯片可能能夠幫助滿足需求。 但與 Nvidia 或 AMD 不同的是,微軟及其云計算領(lǐng)域的同行并不打算讓公司購買包含其芯片的服務(wù)器。
博卡解釋說,該公司根據(jù)客戶反饋構(gòu)建了人工智能計算芯片。
微軟正在測試 Maia 100 如何滿足其 Bing 搜索引擎的 AI 聊天機(jī)器人(現(xiàn)在稱為 Copilot,而不是 Bing Chat)、GitHub Copilot 編碼助手和 GPT-3.5-Turbo(來自微軟支持的 OpenAI 的大型語言模型)的需求, 博卡爾說道。 OpenAI 為其語言模型提供了來自互聯(lián)網(wǎng)的大量信息,它們可以生成電子郵件、總結(jié)文檔并通過人類指令的幾句話回答問題。
GPT-3.5-Turbo 模型適用于 OpenAI 的 ChatGPT 助手,該助手去年推出后很快就流行起來。 隨后,各公司迅速采取行動,在其軟件中添加類似的聊天功能,從而增加了對 GPU 的需求。
Nvidia 財務(wù)主管科萊特·克雷斯 (Colette Kress) 表示:“我們一直在與所有不同的供應(yīng)商進(jìn)行全面合作,以幫助改善我們的供應(yīng)狀況并支持我們的許多客戶以及他們向我們提出的需求?!?9 月份在紐約舉行的 Evercore 會議上說道。
OpenAI 之前曾在 Azure 中的 Nvidia GPU 上訓(xùn)練過模型。
除了設(shè)計 Maia 芯片之外,微軟還設(shè)計了名為 Sidekicks 的定制液冷硬件,該硬件安裝在包含 Maia 服務(wù)器的機(jī)架旁邊的機(jī)架中。 一位發(fā)言人表示,該公司無需改造即可安裝服務(wù)器機(jī)架和 Sidekick 機(jī)架。
對于 GPU,充分利用有限的數(shù)據(jù)中心空間可能會帶來挑戰(zhàn)。 服務(wù)器初創(chuàng)公司 Oxide Computer 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官 Steve Tuck 表示,公司有時會將一些包含 GPU 的服務(wù)器像“孤兒”一樣放在機(jī)架底部,以防止過熱,而不是從上到下填滿機(jī)架。 塔克說,公司有時會增加冷卻系統(tǒng)來降低溫度。
如果以亞馬遜的經(jīng)驗(yàn)為指導(dǎo),微軟可能會看到 Cobalt 處理器的采用速度比 Maia AI 芯片更快。 微軟正在 Cobalt 上測試其 Teams 應(yīng)用程序和 Azure SQL 數(shù)據(jù)庫服務(wù)。 微軟表示,到目前為止,它們的性能比 Azure 現(xiàn)有的基于 Arm 的芯片(來自初創(chuàng)公司 Ampere)的性能提高了 40%。
在過去的一年半中,隨著價格和利率的走高,許多公司都在尋找提高云支出效率的方法,對于 AWS 客戶來說,Graviton 就是其中之一。 AWS 副總裁戴夫·布朗 (Dave Brown) 表示,AWS 的所有前 100 家客戶現(xiàn)在都在使用基于 Arm 的芯片,這可以將性價比提高 40%。
不過,從 GPU 遷移到 AWS Trainium AI 芯片可能比從 Intel Xeon 遷移到 Graviton 更復(fù)雜。 每個人工智能模型都有自己的怪癖。 布朗表示,由于 Arm 在移動設(shè)備中的普及,許多人都在努力讓各種工具在 Arm 上運(yùn)行,但在人工智能芯片中情況并非如此。 但他表示,隨著時間的推移,他預(yù)計組織會看到與 GPU 相比,Trainium 具有類似的性價比優(yōu)勢。
“我們已經(jīng)與生態(tài)系統(tǒng)以及生態(tài)系統(tǒng)中的許多合作伙伴共享了這些規(guī)范,這使我們所有的 Azure 客戶受益,”她說。
Borkar 表示,她沒有詳細(xì)了解 Maia 與 Nvidia H100 等替代品相比的性能。 周一,Nvidia 表示其 H200 將于 2024 年第二季度開始發(fā)貨。
評論