新聞中心

EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 國(guó)產(chǎn)大模型 DeepSeek-V3 開源:6710 億參數(shù)自研 MoE,性能和 GPT-4o 不分伯仲

國(guó)產(chǎn)大模型 DeepSeek-V3 開源:6710 億參數(shù)自研 MoE,性能和 GPT-4o 不分伯仲

作者: 時(shí)間:2024-12-27 來源:IT之家 收藏

12 月 27 日消息,“深度求索”官方公眾號(hào)昨日(12 月 26 日)發(fā)布博文,宣布上線并同步開源 模型,用戶可以登錄官網(wǎng) chat.deepseek.com,與最新版 V3 模型對(duì)話。

本文引用地址:http://m.butianyuan.cn/article/202412/465844.htm

援引博文介紹, 是一個(gè) 6710 億參數(shù)的專家混合(MoE,使用多個(gè)專家網(wǎng)絡(luò)將問題空間劃分為同質(zhì)區(qū)域)模型,激活參數(shù) 370 億,在 14.8 萬(wàn)億 token 上進(jìn)行了預(yù)訓(xùn)練。

多項(xiàng)評(píng)測(cè)成績(jī)超越 Qwen2.5-72B 和 Llama-3.1-405B 等開源模型,性能比肩 GPT-4o 和 Claude-3.5-Sonnet 等世界頂尖閉源模型。

該模型在知識(shí)、長(zhǎng)文本、代碼、數(shù)學(xué)和中文等方面均取得顯著進(jìn)步,尤其在算法代碼和數(shù)學(xué)方面表現(xiàn)突出,生成速度提升至 60 TPS,相比 V2.5 提升了 3 倍。

官方開源了原生 FP8 權(quán)重,并提供 BF16 轉(zhuǎn)換腳本,方便社區(qū)適配和應(yīng)用。SGLang、LMDeploy、TensorRT-LLM 和 MindIE 已支持 V3 模型推理。

更新上線的同時(shí),DeepSeek 還調(diào)整了 API 服務(wù)價(jià)格,模型 API 服務(wù)定價(jià)也將調(diào)整為每百萬(wàn)輸入 tokens 0.5 元(緩存命中)/ 2 元(緩存未命中),每百萬(wàn)輸出 tokens 8 元。

官方還決定為全新模型設(shè)置長(zhǎng)達(dá) 45 天的優(yōu)惠價(jià)格體驗(yàn)期:即日起至 2025 年 2 月 8 日,DeepSeek-V3 的 API 服務(wù)價(jià)格仍然會(huì)是大家熟悉的每百萬(wàn)輸入 tokens 0.1 元(緩存命中)/ 1 元(緩存未命中),每百萬(wàn)輸出 tokens 2 元,已經(jīng)注冊(cè)的老用戶和在此期間內(nèi)注冊(cè)的新用戶均可享受以上優(yōu)惠價(jià)格。




評(píng)論


相關(guān)推薦

技術(shù)專區(qū)

關(guān)閉