首页 > 传媒 > 关键词  > DeepSeek最新资讯  > 正文

透过DeepSeek,聊聊存储是如何给AI加速的

2025-02-28 11:37 · 稿源: 站长之家用户

从AI服务器到AI PC,如何快速的用上DeepSeek成为热门问题。无论DeepSeek Janus-Pro把多模态提升到了一个新层次,还是媲美主流的DeepSeek-V3,或者应用于本地的DeepSeek-V3,对存储都提出了新的需求。以完整未蒸馏的DeepSeek R1 模型为例,这是一个拥有 6710 亿参数的混合专家(MoE)模型,未量化版本的文件体积高达720GB,而动态量化版本也达到150GB到400GB之间。

DeepSeek让GPU算力一下子得到了以前没有的释放,允许厂商将更多的资源集中到其它关键硬件中,比如更强大的并行能力,以及更优秀的存储方案。很显然,常规的存储方案已经不能很好的解决效率和存储的问题,在企业级和数据中心级SSD为AI提供存储支持时,以QLC和CXL为例的新技术也正在协助AI以更低成本和更高的效率运行。

QLC与CXL:为AI铺路

由于DeepSeek不仅降低了计算成本,多模态处理能力、说是知识图谱和推理能力的优秀表现,使得厂商拥有足够的资源调用更多的数据。这使得原本大量的冷数据变成了温数据。温数据对存储有着更高的要求,需要相对HDD更快的传输速率,并且存储数据可能每年以EB级增长。这导致SSD的需求往大容量和低成本的方向发展。

其中QLC能够更好的在单位空间内提升存储容量,第八代BiCS FLASH™ 2Tb QLC的位密度比铠侠目前所采用的第五代BiCS FLASH™的QLC产品提高了约2. 3 倍,写入能效比提高了约70%。不仅如此,全新的QLC产品架构可在单个存储器封装中堆叠 16 个芯片,为业界提供领先的4TB容量,并采用更为紧凑的封装设计,尺寸仅为11.5 x 13.5 mm,高度为1.5 mm。

这意味着,未来采用第八代BiCS FLASH QLC的存储产品在存储空间拥有质的飞跃,可以轻松将企业级SSD和数据中心级SSD容量提升至120TB以上。

密集的DeepSeek计算也意味着对内存有着海量的要求,但动辄数百GB的训练模型全部存储在内存中也意味着高昂的成本,如何利用BiCS FLASH™降低成本也是未来的思考方向。例如利用相变存储原理,基于BiCS FLASH™结构打造的XL-FLASH存储级内存(Storage Class Memory, SCM)与CXL相结合,开发相较内存功耗更低、位密度更高,相较闪存读取速度更快的存储器。这不仅会提高存储器利用效率,还有助于节能。

CXL技术本身通常也意味着更先进的PCIe版本支持,铠侠则是积极响应PCIe升级的存储制造商之一。例如,铠侠率先推出支持PCIe® 5. 0 的企业级固态硬盘CM7 系列。PCIe® 5.0 SSD与传统存储设备(如PCIe® 4.0 SSD)的对比测试,结果显示, CM7 系列SSD在多个GPU并行访问时,能够提供91%的I/O吞吐量提升,此外,它的读取延迟比传统SSD低57%。同时,PCIe® 5.0 SSD能机器学习训练时间能够得到显著减少。以 16 个GPU并行处理为例,使用PCIe® 5.0 SSD可以减少 32 到 44 天的训练时间。

特别是在PCIe® 5. 0 与NVMe™规范下实现可靠的RAID兼容性和互操作性能。特别是生成式AI与检索增强生成 (RAG) 系统的重要性更胜以往,关系数据库PostgreSQL和向量数据库需求变得格外重要。例如通过Xinnor的RAID 解决方案的兼容性和互操作性测试,与采用相同硬件配置的软件 RAID 解决方案相比,在数据降级模式下执行PostgreSQL,效能更提升达 25 倍。

抢先布局

任何前沿技术不可能一蹴而就,AI技术的积累更是如此。流畅体验的AI服务对数据传输速度有着很高的要求。在多年前,铠侠已经开始对AI展开布局,并致力于为人工智能的发展提供高性能的存储解决方案。

为了推动检索增强生成(RAG)扩展获得更好的性能支持,并进一步降低成本。铠侠在近期宣布开源AiSAQ™技术,这是一项专为SSD优化的新型“近似最近邻”搜索(ANNS)算法,跳过将索引数据载入内存(DRAM)的步骤,直接在SSD上执行检索操作,帮助企业/应用针对特定数据优化,从而实现帮助大语言模型(LLM)训练节省成本。

利用高性能存储特性,铠侠在AI前沿进行了诸多尝试。包括通过Memory-Centric AI技术解决企业级SSD中图像分类任务中灾难性丢失问题,在神经网络不通过调整的前提下,在深度学习中快速获得图像特征辨别和标签添加。并在数年前与NVIDIA展开深度合作,从加速StyleGAN、NeRF等算法,到协助NVIDIA搭建Omniverse平台,包括搭建比较新的物理AI开发平台NVIDIA Cosmos,为LLM训练整理自定义数据集的NVIDIA NeMo Curator。

针对前瞻性存储,铠侠在近期还正式发布了全新XD8 系列PCIe® 5.0 EDSFF(企业和数据中心标准型)E1.S固态硬盘。它是铠侠第三代E1.S固态硬盘,符合PCIe® 5.0(32 GT/s x 4)和NVMe™ 2. 0 规范,并支持开放计算项目(OCP)数据中心NVMe SSD v2. 5 规范。

铠侠XD8 系列专为云和超大规模环境设计,满足数据中心对高性能、有效率和高可扩展性的日益增长的需求。通过这款新的固态硬盘,云服务提供商和超大规模企业能够优化基础设施,在保持运营效率的同时提供卓越的性能。

让AI移动起来

DeepSeek另一个实现领域则是在移动平台。即便是春节假期,多个版本针对AI PC本地化AI部署的DeepSeek R1 已经成型,例如蒸馏版本的7B和14B参数模型在笔记本和消费级台式机电脑上,可利用NPU和GPU实现离线运作,进一步确保了私有信息的安全。

对于AI PC而言,除了提供独立GPU或者NPU进行AI加速,大容量NVMe SSD也同等重要,另外还要考虑到有限的AI PC内部空间,固态硬盘需要同时兼顾性能与散热。以铠侠BG6 系列为例,铠侠 BG6 系列在AI PC上能够展现卓越的性能和灵活性。采用 PCIe® 4.0 和 NVMe 1.4c 规范,搭载高达2,048GB存储空间。顺序读取速度比较高可达 6,000 MB/s,随机读取速度更是高达 900,000 IOPS。这使得BG6 系列成为紧凑型固态硬盘中的佼佼者,为用户提供了更快速、更有效的数据处理体验。

另外BG6 系列提供了多种容量选择,包括 256GB、512GB、1,024GB 和 2,048GB,适用于不同用户需求。其采用 M.2 Type 2230 和 Type 2280 模组封装,可灵活应用于各类薄型设备,如超薄笔记本电脑、嵌入式设备。也给不同形态的AI PC部署本地AI提供了丰富的解决方案。

从数据中心、服务器,到个人计算机,铠侠为AI计算提供了丰富、有效的存储方案,并与合作伙伴展开深度合作,从软件和硬件层面入手,利用高性能固态硬盘的特性,为AI计算提供可靠的存储后盾,共同探索更多AI的可能性,充分利用AI与数据,创造更多价值。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • DeepSeek:已对AI生成合成内容添加标识 用户不得恶意删除

    今天下午,DeepSeek发布了《关于AI生成合成内容标识的公告》。 公告中称,Deepseek始终高度重视AI的安全问题,已在平台内对AI生成合成内容添加标识,并明确提醒用户相关内容由AI生成。 此举为贯彻落实《人工智能生成合成内容标识办法》(2025年9月1日起施行)及《网络安全技术 人工智能生成合成内容标识方法》等国家标准的相关要求,防止AI生成内容可能引发的公众混淆、�

  • 免费使用!腾讯地图已接入DeepSeek-V3.1

    DeepSeek V3.1于2025年8月21日发布并开源,腾讯地图率先完成接入。新版AI助手“AI叮当”在三大核心能力显著提升:思考效率更高,响应更快;上下文理解更强,支持多轮连贯对话;智能体调用更精准,尤其在中文网页理解和跨领域搜索方面表现突出。依托升级,AI叮当可提供个性化行程规划、周边推荐及景点知识问答等智能出行服务,让导航升级为全程智能生活陪伴。

  • 2025年大模型选型核心指南:Beyond GPT-4,如何理性评估Qwen、DeepSeek等强者?

    大模型选择能力已成为AI时代企业核心竞争力。文章提出“能力-成本-场景”三维评估框架,强调需超越单一指标崇拜,基于客观数据和实际需求进行理性选择。通过Qwen2-Plus与DeepSeek-V3的对比分析,展示不同模型在特定场景下的差异化优势。建议企业建立科学选型流程,采用专业工具进行多维度评估,通过三阶段验证策略确保决策既数据驱动又经实践检验。最终目标是选择最适合业务场景的模型,而非盲目追求流行模型。

  • 别再猜了!手把手教你用数据选择AI模型,我的Gemini 2.5 Flash-Lite vs DeepSeek选型心得

    开发者分享模型选择心路历程:从盲目试错到数据驱动。曾因追求低价模型导致成本飙升,后通过AIbase平台对比Gemini 2.5 Flash-Lite和DeepSeek-V3,基于价格、上下文长度和代码能力等数据,最终选择更适合代码生成任务的DeepSeek-V3。强调没有“最好”的模型,只有“最适合”的模型,建议开发者善用专业工具进行数据驱动决策,避免隐性成本。

  • Gemini 2.5 Flash-Lite与 DeepSeek-V3 深度对比:谁在性价比上更胜一筹?

    面对琳琅满目的大模型API,开发团队常陷入选择困境。文章指出,2024年既是机遇也是挑战的时代,闭源模型选择丰富但性能与成本平衡复杂。通过AIbase等数据驱动平台进行客观对比至关重要。以Gemini 2.5 Flash-Lite和DeepSeek-V3为例,前者综合能力强适合多语言场景,后者在代码生成和成本控制上优势明显。建议开发者明确需求,通过实际测试验证模型表现,理性选择最适合的方案。

  • Google Gemini vs Deepseek:谁更适合你的业务场景?AI大模型选型终极对比指南

    企业在选择大模型时面临两难:国际大厂的Gemini技术先进,但国内DeepSeek性价比突出。AIbase平台通过真实场景测试数据指出:1)跨境电商客服场景中,Gemini多语言识别准确率提升12%,但需注意API延迟问题;2)金融研报分析场景下,DeepSeek支持128K长文本且成本仅为Gemini的1/3。决策关键:抛开参数迷雾,聚焦成本、响应速度、语言支持和场景匹配四大维度。AIbase提供可视化对比工具,3分钟生成专属选型报告,让技术决策不再玄学。

  • AI日报:DeepSeek V3.1正式发布;企业微信5.0推出全新AI能力;快手 Klear-Reasoner 模型成功登顶

    AI日报栏目聚焦人工智能领域最新动态。DeepSeek V3.1发布,大幅增强长文档分析和代码理解能力;企业微信5.0集成智能搜索、总结和机器人功能;快手Klear-Reasoner模型数学推理准确率超90%;谷歌Docs新增AI语音朗读功能;Firecrawl完成1450万美元融资并推出V2版本API;Meta上线AI语音翻译功能;微软Excel集成Copilot实现一键数据分析;Claude桌面客户端推动AI编程可视化;苹果Xcode将原生集成Cl

  • 甲亢哥在美国疑因涉嫌超速被捕 被戴上手铐大声喊冤“Speed只是我的名字”

    近日,千万网红甲亢哥在美国正直播时,疑因涉嫌超速被捕。 据报道,事发时,甲亢哥正在佛罗里达州直播,他被捕全程被观众目睹。 据视频画面,在被捕过程中,他被警方拦下,并戴上手铐大声喊冤称Speed只是我的名字”,期间还解释喊冤称自己并未超速,也不开车。 不过,很快就有网友质疑,这又是在炒作。 有网友发现逮捕时执法人员”也没按流程没收设备,分析逮�

  • 谁在往“DeepSeek们”的回答里塞广告?

    AI正在重塑现代职场与当代生活。如果说在过去,人们遇到问题往往会首选“搜一下”,如今,则变为“问问AI”。或许是ChatGPT和DeepSeek,也可能是豆包和元宝…… 从数据来看,头豹研究院数据显示,全球AI搜索的用户量从2024年1月的3.1亿增长至2025年2月份的19.8亿,增长率达538.7%。 而当AI在日常工作和生活中越来越成为不可或缺的工具,变化正悄然发生。当DeepSeek的回答里频繁�

  • 智能体迎来“DeepSeek时刻”,为何主角是纳米AI?

    大模型重塑了人工智能的产业格局,但却没有彻底颠覆人类的生产模式。 在这背后,并非其技术力量不足,而是当前的应用形态仍停留在“工具赋能”的初级阶段,大模型的潜力被束缚在碎片化场景中,未能转化为重构生产逻辑的核心动能。 正如360集团创始人、董事长周鸿祎所言,大模型的能力其实已经相当强大,甚至超越了我们中的许多人。只是其潜力尚未被挖掘。 而�

今日大家都在搜的词: