首页 > 传媒 > 关键词  > DeepSeek-V3.2最新资讯  > 正文

强强联手!深度求索、寒武纪同步发布DeepSeek-V3.2模型架构和基于vLLM的模型适配源代码

2025-09-29 20:09 · 稿源: 站长之家用户

2025年9月29日,深度求索公司发布新一代模型架构 DeepSeek-V3.2 ,引发行业广泛关注。令人瞩目的是,在该大模型发布的同时,寒武纪也官宣了对 DeepSeek-V3.2的适配,并开源大模型推理引擎 vLLM 源代码。

深度求索公司正式发布的 DeepSeek-V3.2-Exp 模型,是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。

目前,DeepSeek 官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时 API 大幅度降价,欢迎广大用户体验测试并提供反馈意见。

同时,寒武纪已同步实现对深度求索公司最新模型 DeepSeek-V3.2-Exp 的适配,并开源大模型推理引擎 vLLM-MLU 源代码。代码地址和测试步骤见文末,开发者可以在寒武纪软硬件平台上第一时间体验 DeepSeek-V3.2-Exp 的亮点。

这一同步发布适配的“高能”操作,在业内专家看来,背后蕴含着中国顶尖科技企业深度协同的重要信号。

从技术层面来看,这款新大模型的体量相当可观,达到了 671GB 。据行业测算,在带宽充足的理想条件下,仅完成该大模型的下载,就需要耗费约 8-10 个小时。而芯片与大模型的适配,涉及底层架构优化、算力资源匹配、兼容性调试等一系列复杂工作,绝非短时间内能够完成。

有 AI 行业资深专家分析指出:“如此快速的适配响应,充分说明寒武纪早在 DeepSeek-V3.2 发布前就已启动适配研发,双方在技术层面的沟通与协作早已悄然展开。双方都是低调务实的公司,前期秘而不宣,估计早就已经相向而行了。”拒绝炒作、专注技术,正是当下中国顶尖科技企业行事风格的典型体现。

全球 AI 竞争日趋激烈,中国 AI 产业要想在国际舞台上站稳脚跟、占据优势地位,离不开头部企业间的深度协同合作。此次大模型与 AI 芯片领军企业的快速联动,正是国内高科技企业协同创新的有力例证。

我们可以期待,本次产业链上下游领军企业的深度协同,将大幅降低大模型用户在长序列场景下的训推成本,助力 AI 应用的 “涌现”。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐

今日大家都在搜的词: