首页 > 传媒 > 关键词  > AI大模型最新资讯  > 正文

忆联UH812a以MLPerf Storage标杆级验证,重塑AI存储效能,奠定智能算力基石

2026-02-06 15:10 · 稿源: 站长之家用户

随着AI大模型进入万亿参数时代,传统存储性能测试已难以真实反映存储系统在实际训练场景中对成本与效率的核心影响。为此,全球权威AI基准测评组织MLCommons正式推出MLPerf Storage基准测试套件,为行业建立起一套贴合实际、具有指导意义的权威评估框架。

区别于传统存储性能测试,MLPerf Storage基准的核心价值在于直接评估存储系统能否支撑GPU集群达到并维持高利用率——这直接决定了整体训练耗时与算力资源成本。该基准在v2.0版本中进一步引入Checkpoint工作负载,精准模拟大模型训练中的容灾恢复环节,使评测更贴近前沿场景的实际需求。

为评估忆联Gen5eSSD UH812a在AI场景中的性能表现,本次测试基于MLPerf Storage v2.0默认参数展开,并特别针对对数据供给要求更高的NVIDIA H100加速器进行模拟验证,以检验存储系统能否充分适配新一代算力平台的性能需求。此次测试覆盖了MLPerf Storage v2.0包含的全部训练负载,包括U-Net3D、ResNet50、CosmoFlow和Checkpoint。

结果显示,在四项训练模型中,UH812a的 GPU利用率均超过基准要求,表现出强劲的性能;同时在可支持的加速器数量上亦领先于行业同类产品,有力验证了其在高负载AI训练场景下可提供稳定且高性能的存储支持。

测试环境

部件

配置信息

CPU

Intel(R) Xeon(R) Gold6430 CPU @2.1GHz*2

内存

512GB

存储

系统盘:Union Memory SATA2*480GB

数据盘:Union Memory UH812a7.68TB

Linux内核版本

Linux6.17.4-1.el8.elrepo.x86_64

性能测试软件

MLPerf Storage v2.0

测试结果

1、U-Net3D训练场景

该场景模拟医疗影像等大体积3D数据的训练过程,要求存储系统持续为多个并发GPU客户端提供大型数据文件(单个约146MB),旨在测试存储的极限顺序读写带宽,确保GPU不会因数据供给不足而出现空闲等待。

在U-Net3D场景负载下,我们共计训练了42000个文件,模拟了1到5颗GPU的训练过程。如图1所示,UH812a在模拟5颗H100GPU的负载下,实现了14566.46MB/s的最高吞吐量,接近标称读带宽(14900MB/s),此时GPU利用率(AU)达到最低96%,远高于基准所要求的90%以上水平。通过图1也可看见,UH812a的性能随着GPU数量增加而线性提升,且GPU利用率仅出现微弱波动,证明其在多客户端高并发访问场景下仍能持续提供稳定、高带宽的数据流。

图1:UH812a在不同数量H100环境下的性能测试结果

此外,在该场景测试中,UH812a可支持高达5颗H100加速器,优于对比竞品(仅支持4颗),凸显了其在大体积3D数据训练负载下更强的并发处理能力与性能优势。

图2:UH812a与竞品可支持的H100数量对比

2、ResNet50训练场景

此场景模拟常规图像分类模型的训练流程,要求存储系统能够应对海量GPU客户端的高并发、随机读取需求,处理大量小型图片文件(每个约150KB),从而充分考验存储系统的高IOPS和低延迟元数据处理能力。

在ResNet-50场景测试中,我们共计训练了19163个文件,模拟了10至78颗GPU的训练过程。如图3所示,在模拟78颗H100GPU的负载下,UH812a实现了14008.66MB/s的最大吞吐量,GPU利用率稳定在92.2%,同样超过基准要求(AU> 90%),体现出其能够为复杂训练任务持续提供充足的存储性能支持。

图3:UH812a在不同数量H100环境下的性能测试结果

另外,在此场景测试中,UH812a可支持高达78颗H100加速器同时高效工作,显著领先于竞品(分别为65颗和64颗)。这一优势表明,UH812a具备支撑更大规模AI训练集群的潜力,能为极致扩展的模型训练任务提供稳定可靠的数据供给基础。

图4:UH812a与竞品可支持的H100数量对比

3、CosmoFlow训练场景

该场景主要模拟气候、宇宙学等科学计算中的大规模训练任务,要求存储系统能够支持从8个到数千个客户端的GPU集群扩展,同时高效读取海量中等尺寸文件(每个约2MB)。其核心挑战在于存储系统的可扩展性与延迟稳定性——任何局部的访问延迟都可能拖慢整个分布式训练作业,因此对存储系统的并发处理与响应一致性要求更高。

在CosmoFlow场景的实际验证中,我们累计训练了971819个文本数据,并模拟了1至26颗GPU的训练过程。如图5所示,当加速器数量达到23颗及以上时,UH812a的吞吐量稳定维持在约14000MB/s,同时GPU利用率始终高于基准要求(AU>70%),展现出卓越的系统可扩展性与持续稳定的高并发数据供给能力。

图5:UH812a在不同数量H100环境下的性能测试结果

此外,在这一场景下,UH812a可支持26颗H100加速器,相比于竞品(支持21颗和16颗),支持GPU数量更多,可为高负载场景提供稳定可靠的存储服务。

图6:UH812a与竞品可支持的H100数量对比

4、Checkpoint训练场景

此场景模拟大模型训练中保存和恢复训练状态的关键操作,要求所有GPU同时将完整的模型状态(参数、优化器等,规模可达数TB)顺序写入存储,再快速读取。该过程是对存储系统高并发顺序读写带宽的终极考验,其性能直接决定了训练任务因中断而损失的时间。

在Checkpoint场景的实测中,受限于时间等因素,我们以Llama3-8b模型进行了写入测试,图7结果显示,UH812a的带宽达到13053.4MB/s,较竞品A提升24%,较竞品B提升11%,可为用户提供高性能的读写体验。

图7:Llama3-8b模型下UH812a与竞品表现对比

MLPerf Storage v2.0的测试结果表明,UH812a能够充分满足前沿AI场景对存储系统的严苛性能需求,尤其在数据供给能力和稳定性方面展现出显著优势,性能领先于业界同类产品。这不仅印证了其在加速AI工作负载方面的卓越能力,也体现了其作为智能算力底座关键一环的核心价值。

未来,忆联将继续聚焦AI存储技术创新与产品研发,致力于通过更高性能、更可靠的存储解决方案,持续赋能智能算力基础设施建设,与产业伙伴共同推动人工智能技术的规模化落地与持续演进。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 字节聚力GEO技术解读:如何让AI大模型主动推荐你的品牌

    文章介绍了字节聚力公司提出的GEO(生成式引擎优化)技术,旨在帮助品牌在AI大模型时代获得优先推荐。GEO通过四大核心系统实现:构建企业知识图谱,使AI能“理解”品牌价值;训练专属智能体(GEO-Agent)进行策略决策;针对不同AI平台优化内容分发;并通过用户意图监测平台实现动态优化。该技术标志着从传统SEO到适应AI认知逻辑的转变,帮助品牌成为大模型眼中的“可信答案”。

  • 2026年GEO优化公司评测对比:基于AI大模型“认知友好度”的五维战力排位赛

    本文基于AI大模型底层逻辑,首创“AI认知友好度五维评估体系”,深入剖析了六家头部GEO服务商如何帮助企业从“被看见”跨越到“被信任”。报告指出,传统搜索引擎的“蓝色链接”霸权正在瓦解,企业竞争焦点已从“如何被百度收录”转向“如何让AI在生成答案时优先推荐我”。通过量化评估发现,数据一致性、多模态对齐和鲁棒性成为AI时代营销的三大铁律。报告为不同企业提供了选型建议,并强调GEO优化已成为品牌在AI时代保持“存在感”的战略投资。

  • 从展示信息到行为数据:森森 Gensen 探索 AI 社交的新匹配逻辑

    过去十年,互联网社交产品的匹配逻辑经历了从依赖地理位置、照片展示到兴趣标签的变化。如今,AI生成内容使照片、文字等传统信息载体可信度下降,社交匹配面临新挑战。一些产品开始尝试从“展示型信息”转向“行为数据”,通过游戏化场景(如语音社交产品“森森”)让用户在自然互动中产生真实行为数据,并利用语音的实时性捕捉副语言信号,进行匿名化建模分析,从而优化匹配。这反映出社交产品正从信息展示竞争转向行为理解能力的竞争,真实互动数据可能成为下一代社交平台的核心。

  • 花生壳MCP x OpenClaw:让AI Agent拥有“内网超能力”

    花生壳推出MCP功能,让云端AI Agent能自主访问内网资源。用户只需在花生壳控制台生成MCP配置JSON,发送给OpenClaw等AI Agent,即可自动建立内网隧道。AI可指令创建端口映射,通过公网地址直接访问内网服务,并灵活修改或删除映射。该方案简化了传统繁琐的内网穿透配置,提升了开发效率,为私有化部署和内网自动化应用开辟了新可能。

  • 飞书CEO谢欣:未解决安全问题的Agent越强大越危险

    飞书CEO谢欣近日分享了对当前养虾”热潮的观察。 他表示,最近OpenClaw实在太火,很多朋友都在飞书上养虾。春节前后短短几周,已经有人的工作方式悄然改变。 在谢欣看来,个人电脑上跑agent和企业里用agent,是完全不同的事情。个人玩agent是探索,企业用agent是责任。个人场景出了错,大不了重来;企业场景出了错,可能是文件被删,数据泄露。 他强调,agent的能力上限�

  • 拒绝向大模型“投毒”!PureblueAI清蓝用可信优化构建品牌AI护城河

    Gartner预测,到2028年,50%的搜索引擎流量将被AI搜索取代。随着AI大模型的普及,互联网流量入口正从“搜索”向“对话与推荐”迁移。消费者决策方式转变,品牌如何被AI推荐成为CMO的核心挑战。部分服务商采用“黑帽”手段污染AI模型数据,损害消费者权益与品牌声誉。PureblueAI清蓝提出以可信优化技术应对,通过真实、优质的数字内容建立品牌长期护城河,并推出企业AI营销平台mkter.ai,以AI原生数字员工“Mark”助力品牌实现AI口碑全域优化。

  • 好音质门槛再降!七彩虹Colorfly M1P Air便携解码器发布:599元

    七彩虹旗下品牌Colorfly于3月12日发布便携音频解码器新品M1P Air,售价599元。该设备采用USB高音质解码放大设计,兼容苹果、安卓、Windows等多系统设备。核心搭载AKM4493SEQ音频处理器,内置双XR2001独立运放芯片,支持3.5mm单端和4.4mm平衡输出。外观采用同轴环形结构,锌合金机身重16克。搭载第二代JitterKill飞秒时钟技术,减少信号干扰。具备高/低两档增益优化,并支持UAC1.0游戏模式,兼容Switch、PS5等游戏主机。

  • 小米首款高端轻薄本 小米笔记本Pro 14预留2280 SSD插槽 最高4TB扩展

    小米笔记本Pro+14将于3月19日发布,作为小米首款高端轻薄本,重量仅1.08kg。配备14.6英寸3.1K OLED屏幕,支持120Hz刷新率,峰值亮度1600nits。搭载第三代英特尔酷睿Ultra X7 358H处理器,性能释放达50W,集成12Xe核显,图形性能媲美RTX 3050 Ti。支持最高4TB存储扩展,配备129cm全域压感触控板及丰富接口,包括40Gbps雷电4等。AI处理能力提升105%,续航达19.8小时,标配100W氮化镓适配器。

  • 雷军回应小米手机龙虾:只是小米探索Agent的一小步

    小米公司有了新动作,其基于小米MiMo大模型构建的AI交互测试产品——Xiaomi miclaw正式官宣,并开启小范围封闭测试。这款产品作为小米在Agent领域探索的初步成果,引发了外界关注。 当下养龙虾热潮正盛,而小米创始人雷军在谈及相关话题时,将重点引到了AI领域。他表示,AI的发展肯定会带来诸多新机会,同时也会替代不少现有工作。面对这样的形势,每个人都应该积极拥�

  • AI日报:小米发布Agent产品Xiaomi miclaw;OpenAI 发布 GPT-5.4系列;微软宣布必应视频全面接入Sora2模型

    本期AI日报涵盖多项重要动态:小米发布首款移动端Agent产品Xiaomi miclaw,基于自研MiMo大模型,旨在实现智能终端自动化交互。OpenAI推出GPT-5.4系列模型,包括标准版、推理版和高性能版,上下文窗口达百万级,在金融和法律领域表现优异。微软宣布必应视频创作者全面接入Sora2模型,提供免费高质量视频生成服务。Roblox推出AI实时改写功能,将违规内容自动转为礼貌合规语言。3D生成模型公司VAST获5000万美元融资,由阿里巴巴领投,将用于构建UGC互动生态。携程下线自动调价工具,推动酒店行业转向服务竞争。陈天桥九年后首度露面,透露正投入20亿美元研发“发现式AI”。阿里巴巴澄清千问团队集体离职传闻,称团队稳定,服务正常。

今日大家都在搜的词: