寒武纪达成DeepSeek-V4全系列模型Day0适配并开源优化代码
寒武纪今日宣布,已基于 vLLM 推理框架完成对深度求索(DeepSeek)最新开源模型DeepSeek-V4全系列的“Day0”适配。此次改装涵盖285B 参数的 Flash 版本及1.6T 参数的 Pro 版本,确保模型在发布当日即可在寒武纪硬件平台上稳定运行,相关改装代码已正式开源至 GitHub 社区。
针对DeepSeek-V4独有的稀疏注意力与压缩结构,寒武纪通过自研向量融合算子库 Torch-MLU-Ops 对 Compressor 等核心模块进行了专项加速。利用 BangC 高性能编程语言,寒武纪团队编写了稀疏 Attention 及 GroupGemm 等热点算子的极致优化内核,并于 vLLM 框架中全面支持 TP/PP/SP/DP/EP 五维混合并行策略、低精度量化及 PD 分离部署。这些技术手段在满足延迟约束的前提下,显著提升了端到端推理的词元吞吐能力。
![]()
硬件层面,寒武纪深度挖掘了 MLU 的访存与排序加速特性,有效应对DeepSeek-V4复杂的索引结构。凭借高互联带宽与低延迟通信优势,该方案最大化降低了 Prefill 与 Decode 场景下的通信损耗,提升了推理利用率。
行业分析指出,DeepSeek-V4凭借百万字(1M)超长上下文及顶尖的逻辑推理性能,对底层算力架构提出了严苛要求。寒武纪在模型发布首日的敏捷适配,不仅展示了国产算力平台对超大规模、复杂结构模型的承载能力,也预示着国产 AI 产业链在软硬协同层面已进入成熟期,为大模型应用普惠提供了高效的算力底座支持。
©️版权声明:若无特殊声明,本站所有文章版权均归 百易AI导航(baiyiai.com)原创和所有,未经许可,任何个人、媒体、网站、团体不得转载、抄袭或以其他方式复制发表本站内容,或在非我站所属的服务器上建立镜像。否则,我站将依法保留追究相关法律责任的权利。
ICP备案:沪ICP备2026056879号