首頁  資訊  商機(jī)   下載  拆解   高校  招聘   雜志  會(huì)展  EETV  百科   問答  電路圖  工程師手冊   Datasheet  100例   活動(dòng)中心  E周刊閱讀   樣片申請(qǐng)
EEPW首頁 >> 主題列表 >> gpu-z

摩爾線程首個(gè)千卡KUAE智算中心落地

  • 據(jù)摩爾線程官網(wǎng)消息,12月19日,摩爾線程首個(gè)全國產(chǎn)千卡千億模型訓(xùn)練平臺(tái)——摩爾線程KUAE智算中心揭幕儀式在北京成功舉辦,宣告國內(nèi)首個(gè)以國產(chǎn)全功能GPU為底座的大規(guī)模算力集群正式落地。與此同時(shí),摩爾線程聯(lián)合國內(nèi)眾多合作伙伴發(fā)起并成立了“摩爾線程PES - KUAE智算聯(lián)盟”和“摩爾線程PES - 大模型生態(tài)聯(lián)盟”,共同夯實(shí)從智算基礎(chǔ)設(shè)施到大模型訓(xùn)練與推理的國產(chǎn)大模型一體化生態(tài),持續(xù)為我國大模型產(chǎn)業(yè)發(fā)展加速。據(jù)官方介紹,摩爾線程KUAE智算中心解決方案以全功能GPU為底座,是軟硬一體化的全棧解決方案,包括
  • 關(guān)鍵字: 摩爾線程  GPU  大模型  

Omniva背后:這家神秘的GPU云初創(chuàng)公司試圖打造全球最大的加密數(shù)據(jù)中心

  • 這家中東公司從 AWS、Azure、Meta 招聘人才。
  • 關(guān)鍵字: GPU  云服務(wù)器  

不聽話就“封殺”?英偉達(dá)沒在怕的

  • 據(jù)彭博社報(bào)道,當(dāng)?shù)貢r(shí)間12月2日,美國商務(wù)部長雷蒙多在加利福尼亞州錫米瓦利舉行的年度國防論壇上妄稱,中國是“我們有史以來面臨的最大威脅”,并強(qiáng)調(diào)“中國不是我們的朋友”。她還敦促美國議員、硅谷人士和美國的盟友阻止中國“獲得對(duì)國家安全至關(guān)重要的半導(dǎo)體和尖端技術(shù)”,“我們不能讓中國得到這些芯片”。這一言論引發(fā)了廣泛關(guān)注,特別是對(duì)美國企業(yè)在中國市場的影響。其中,英偉達(dá)首席執(zhí)行官黃仁勛表示,公司正與美國政府合作以確保芯片出口符合新的限制。在這場國際舞臺(tái)上,國家安全與市場競爭正展開激烈的博弈。美國的國家安全擔(dān)憂美國商
  • 關(guān)鍵字: 英偉達(dá)  美國  GPU  禁售  

?英偉達(dá)首席執(zhí)行官表示,他將嘗試優(yōu)先考慮日本的人工智能處理器

  • 英偉達(dá)首席執(zhí)行官黃仁勛周一表示,在市場需求極高的情況下,英偉達(dá)將盡最大努力向日本供應(yīng)人工智能處理器。日本正急于重建其曾經(jīng)世界領(lǐng)先的半導(dǎo)體基礎(chǔ)設(shè)施,并追趕人工智能技術(shù)的發(fā)展??偛课挥诿绹挠ミ_(dá)公司生產(chǎn)的圖形處理器(GPU)主導(dǎo)著人工智能市場。黃仁勛在東京岸田文雄首相官邸對(duì)記者表示:“需求量非常高,但我向首相保證,我們將盡最大努力優(yōu)先考慮日本對(duì)GPU的需求?!秉S仁勛訪日不到兩周前,日本通過了一項(xiàng)額外預(yù)算,其中包括約2萬億日元(136億美元)的芯片投資專項(xiàng)資金。預(yù)計(jì)其中一些資金將用于支持臺(tái)灣芯片制造商臺(tái)積電(
  • 關(guān)鍵字: 英偉達(dá)  黃仁勛  日本  GPU  

英偉達(dá)擬在日本建立芯片工廠網(wǎng)絡(luò),滿足人工智能需求

  • 英偉達(dá)將在日本建立半導(dǎo)體工廠網(wǎng)絡(luò),以滿足對(duì)人工智能驅(qū)動(dòng)的圖形芯片的需求。據(jù)外媒,英偉達(dá)首席執(zhí)行官黃仁勛日前表示,將與日本企業(yè)合作,在日本建立半導(dǎo)體工廠網(wǎng)絡(luò),以滿足對(duì)人工智能驅(qū)動(dòng)的圖形芯片的需求。報(bào)道稱,英偉達(dá)的GPU通過并行計(jì)算處理大量數(shù)據(jù),已成為訓(xùn)練人工智能服務(wù)的首選工具。
  • 關(guān)鍵字: 英偉達(dá)  人工智能  GPU  日本工廠  

報(bào)告稱 2023Q3 PC GPU 出貨 7190 萬片,環(huán)比增長 16.8%、同比下降 5%

  • IT之家 12 月 5 日消息,根據(jù)市場調(diào)查機(jī)構(gòu) Jon Peddie Research 公布的最新統(tǒng)計(jì)數(shù)據(jù),2023 年第 3 季度全球 PC GPU 出貨量 7190 萬片,環(huán)比增長 16.8%,同比溫和下降 5%,同比降幅收窄,為過去 5 年來最低。該機(jī)構(gòu)預(yù)估 PC GPU 在 2022-2026 年期間,復(fù)合年增長率為 4.18%,在預(yù)測期結(jié)束時(shí)數(shù)量逼近 50 億片;該機(jī)構(gòu)還預(yù)估未來 5 年,獨(dú)顯在 PC 中的滲透率(占比)將達(dá)到 30%。按照品牌來劃分,AMD 市場份額較上個(gè)季度增加了
  • 關(guān)鍵字: GPU  AMD  英特爾  英偉達(dá)  

行業(yè)大牛開啟新征程,芯片架構(gòu)創(chuàng)新迎來新局面

  • 本周,全球 IT 業(yè)最大的新聞非 OpenAI 聯(lián)合創(chuàng)始人山姆·奧特曼(Sam Altman)離開原公司、加入微軟莫屬。當(dāng)然,這并不是終點(diǎn)。Sam Altman 被 OpenAI 董事會(huì)驅(qū)逐,被認(rèn)為是技術(shù)派的勝利,因?yàn)榱硪幻?lián)合創(chuàng)始人薩斯克維爾認(rèn)為 Altman 商業(yè)化行動(dòng)過于激進(jìn),存在很多安全隱患,因此,聯(lián)合其他三名外部董事驅(qū)逐了 Altman。本文不關(guān)注 OpenAI 的「宮斗」大戲,無論 Altman 最終留在微軟,還是回歸 OpenAI,都不會(huì)影響他開創(chuàng) AI 軟硬件新技術(shù)和市場的意愿,區(qū)別只是在
  • 關(guān)鍵字: GPU  APU  AI服務(wù)器  

英偉達(dá) Q3 狂賣 50 萬 GPU,AI 爆火背后是顯卡的爭奪

  • 據(jù)統(tǒng)計(jì),英偉達(dá)在第三季度大約賣出了 50 萬臺(tái) H100 和 A100 GPU,大語言模型爆火的背后,是眾組織機(jī)構(gòu)對(duì) GPU 的爭奪,是英偉達(dá)近千噸的顯卡出貨量。據(jù)市場跟蹤公司 Omdia 的統(tǒng)計(jì)分析,英偉達(dá)在第三季度大約賣出了 50 萬臺(tái) H100 和 A100 GPU!此前,Omdia 通過英偉達(dá)第二季度的銷售額,估計(jì)其大概賣出了 900 噸 GPU!大語言模型火爆的背后,英偉達(dá)建立起了強(qiáng)大的顯卡帝國。在人工智能的大潮之下,GPU 成為了各機(jī)構(gòu)、公司,甚至是國家在全球范圍內(nèi)爭奪的對(duì)象。在本財(cái)年第三季度
  • 關(guān)鍵字: 英偉達(dá)  GPU  人工智能  

AWS與NVIDIA深化合作,推動(dòng)AI基礎(chǔ)設(shè)施創(chuàng)新

  • 據(jù)外媒,近日,亞馬遜(Amazon)旗下亞馬遜云科技(Amazon Web service,AWS)在2023 re:Invent全球大會(huì)上宣布,與英偉達(dá)擴(kuò)大戰(zhàn)略合作,將聯(lián)合推出先進(jìn)的基礎(chǔ)設(shè)施、軟件及服務(wù),推動(dòng)客戶在生成式AI(Generative AI)的創(chuàng)新。報(bào)道稱,雙方將英偉達(dá)與亞馬遜云科技技術(shù)優(yōu)勢相結(jié)合,具體包含英偉達(dá)新一代GPU、CPU(中央處理器)與AI軟件的最新多節(jié)點(diǎn)系統(tǒng),以及亞馬遜云科技的Nitro System先進(jìn)虛擬化與安全平臺(tái)、Elastic Fabric Adapter(EFA)互
  • 關(guān)鍵字: NVIDIA  AWS  AI  GPU  

Omdia:英偉達(dá) Q3 售出近 50 萬個(gè) A100 和 H100 AI GPU,Meta 和微軟是最大買家

  • IT之家 11 月 28 日消息,本財(cái)年第三季度,得益于 AI GPU 的需求火熱,英偉達(dá)在數(shù)據(jù)中心硬件上賺了 145 億美元(IT之家備注:當(dāng)前約 1038.2 億元人民幣)。研究機(jī)構(gòu) Omdia 表示,英偉達(dá) Q3 售出了近 50 萬個(gè) A100 和 H100 GPU,基于 H100 的服務(wù)器的交付周期已延長至 36 到 52 周。Omdia 認(rèn)為,Meta 和微軟是英偉達(dá) H100 GPU 的最大買家。他們都采購了多達(dá) 15 萬個(gè) H100 GPU,遠(yuǎn)遠(yuǎn)超過谷歌、亞馬遜、甲骨文和騰訊購買的
  • 關(guān)鍵字: 英偉達(dá)  GPU  計(jì)算平臺(tái)  

龍芯中科:定位終端的2K3000已完成前端設(shè)計(jì)

  • 龍芯中科近期接受投資者調(diào)研時(shí)稱,6000系列計(jì)劃在目前的工藝上再做一次improvement(結(jié)構(gòu)優(yōu)化),用已有工藝完成結(jié)構(gòu)優(yōu)化試錯(cuò)后再升級(jí)到更先進(jìn)工藝。到做6000系列時(shí)將會(huì)分成桌面、服務(wù)器和終端三條線,并不斷地提高性價(jià)比。服務(wù)器產(chǎn)品3C/3D/3E6000將全部采用全新的龍鏈技術(shù),實(shí)現(xiàn)片間高速互連。打印機(jī)后續(xù)將陸續(xù)推出系列化的芯片以滿足市場需求。定位終端的2K3000目前已經(jīng)完成前端設(shè)計(jì),計(jì)劃明年一季度交付流片,其單核性能跟3A5000可比,集成了自研的第二代GPU核LG200、密碼模塊和各種豐富的接
  • 關(guān)鍵字: 龍芯中科  GPU  

前英特爾圖形主管 Raja Koduri:獨(dú)立 GPU 不會(huì)很快被“計(jì)算專用”集成 SoC 取代,未來長路漫漫

  • IT之家?11 月 27 日消息,前英特爾圖形主管?Raja Koduri?在今年 3 月離職,成立了一家 AI 初創(chuàng)公司。日前他在?X?平臺(tái)發(fā)布回應(yīng)貼文,認(rèn)為獨(dú)立?GPU?在計(jì)算方面更有優(yōu)勢,相對(duì)于計(jì)算專用集成 SoC?用途更穩(wěn)定?!?圖源?Raja Koduri 發(fā)布的貼文IT之家從 Raja Koduri?回應(yīng)中獲悉,Raja Koduri?認(rèn)為獨(dú)立 GPU 不會(huì)很快被用于 AI 和 HPC
  • 關(guān)鍵字: GPU  AI  人工智能  

消息稱中國特供版英偉達(dá) H20 AI 芯片推遲到明年一季度發(fā)布

  • IT之家?11 月 24 日消息,芯片咨詢公司 SemiAnalysis 此前消息稱,英偉達(dá)現(xiàn)已開發(fā)出針對(duì)中國區(qū)的最新改良版 AI 芯片,包括 HGX H20、L20 PCIe 和 L2 PCIe,在 LLM 推理中,要比 H100 快 20% 以上。據(jù)路透社報(bào)道,兩位消息人士透露,英偉達(dá)已告知中國客戶,HGX H20 AI 芯片的推出時(shí)間將推遲到明年第一季度。消息人士稱,他們被告知,由于服務(wù)器制造商在集成芯片方面遇到問題,H20 被推遲。其中有人表示,他們被告知可能會(huì)在 2 月或 3 月發(fā)布。
  • 關(guān)鍵字: 英偉達(dá)  GPU  計(jì)算平臺(tái)  H20  

英偉達(dá)預(yù)估明年高端AI服務(wù)器出貨中國占比低于4%

  • 11月24日消息,受惠北美大型CSP廠商對(duì)AI服務(wù)器需求高漲,根據(jù)英偉達(dá)日前公布的FY3Q24財(cái)報(bào)資料顯示,數(shù)據(jù)中心部門營收創(chuàng)新高。不過,據(jù)集邦咨詢觀察,盡管英偉達(dá)高階GPU出貨動(dòng)能強(qiáng)勁,然近期美國政府出臺(tái)對(duì)中國大陸新一波禁令卻對(duì)其大陸業(yè)務(wù)帶來沖擊,英偉達(dá)雖然快速推出符合規(guī)范的產(chǎn)品如H20、L20及L2,但中國大陸云端廠商仍在測試驗(yàn)證階段,難在第4季對(duì)英偉達(dá)貢獻(xiàn)實(shí)質(zhì)營收,預(yù)估2024年第1季才會(huì)逐步放量。集邦咨詢表示,2023~2024年北美CSPs如微軟、Google、AWS等仍是高階AI服務(wù)器(包含搭
  • 關(guān)鍵字: 英偉達(dá)  GPU  AI服務(wù)器  

NVIDIA 為全球領(lǐng)先的 AI 計(jì)算平臺(tái) Hopper 再添新動(dòng)力

  • 據(jù)英偉達(dá)官微消息,近日,NVIDIA宣布推出 NVIDIA HGX? H200,為Hopper這一全球領(lǐng)先的AI計(jì)算平臺(tái)再添新動(dòng)力。據(jù)悉,NVIDIA H200是首款采用HBM3e的GPU,其運(yùn)行更快、更大的顯存容量將進(jìn)一步加速生成式AI與大語言模型,同時(shí)推進(jìn)用于HPC工作負(fù)載的科學(xué)計(jì)算。憑借HBM3e,NVIDIA H200能夠提供傳輸速度達(dá)4.8 TB /秒的141GB顯存。與上一代架構(gòu)的NVIDIA A100相比,其容量幾乎翻了一倍,帶寬也增加了2.4倍。據(jù)了解,全球領(lǐng)先的服務(wù)器制造商和云
  • 關(guān)鍵字: 英偉達(dá)  Hopper  AI  GPU  
共790條 9/53 |‹ « 7 8 9 10 11 12 13 14 15 16 » ›|

gpu-z介紹

您好,目前還沒有人創(chuàng)建詞條gpu-z!
歡迎您創(chuàng)建該詞條,闡述對(duì)gpu-z的理解,并與今后在此搜索gpu-z的朋友們分享。    創(chuàng)建詞條

熱門主題

樹莓派    linux   
關(guān)于我們 - 廣告服務(wù) - 企業(yè)會(huì)員服務(wù) - 網(wǎng)站地圖 - 聯(lián)系我們 - 征稿 - 友情鏈接 - 手機(jī)EEPW
Copyright ?2000-2015 ELECTRONIC ENGINEERING & PRODUCT WORLD. All rights reserved.
《電子產(chǎn)品世界》雜志社 版權(quán)所有 北京東曉國際技術(shù)信息咨詢有限公司
備案 京ICP備12027778號(hào)-2 北京市公安局備案:1101082052    京公網(wǎng)安備11010802012473