首页 > 传媒 > 关键词  > 半导体存储最新资讯  > 正文

聚焦企业级存储,江波龙2025年的市场开拓与深耕

2026-03-03 10:41 · 稿源: 站长之家用户

2025年,半导体存储行业在AI的强劲拉动下,迎来了全面增长与结构升级的浪潮。江波龙作为行业内知名存储上市公司,在这一年里同样以前瞻性的战略布局和深厚的技术积累,在AI存储领域取得了令人瞩目的成绩,成为推动行业发展的中坚力量。

产品全面开花,成绩亮眼

这一年,江波龙在企业级存储市场表现卓越。据IDC调研报告,2025年上半年中国企业级SATA SSD总容量排名中,江波龙位列全球第三、国产品牌第一。企业级业务上半年收入达到6.93亿元,同比增长138.66%,这一数据直观地反映出江波龙在企业级存储领域的强大竞争力。

主控芯片设计是江波龙在AI存储领域取得成功的关键因素之一。2024-2025年,公司陆续推出6款自研主控芯片,覆盖eMMC、SD卡、UFS及USB移动存储等主流和高端产品。自2020年启动自研规划以来,所有主控芯片均一次性投片成功并顺利点亮,截至三季度末,累计部署量突破1亿颗。其中,搭载自研主控芯片的UFS4.1产品获得多家Tier1大客户认可,部署规模快速增长,同时为端侧AI产品如人形机器人、AI手机、AI平板等提供了高性能的存储解决方案。

在产品创新方面,江波龙推出的集成封装mSSD成为一大亮点。通过重构常规SSD介质的定位与形态,打造出“高品质、高效率、低成本、更灵活”的SSD新品类。mSSD不仅兼容M.22230SSD规格,还通过定制化固件、硬件方案等,实现了从PSSD、M.22242/2280规格SSD到固态存储卡、AI存储卡等多元存储形态的创新拓展。以mSSD为核心衍生出的行业首款AI Storage Core,具备大容量、热插拔、AI应用定向固件优化等特性,推动了存储行业的迭代升级。

布局AI存储场景,广泛应用

面对AI带来的技术革新,江波龙积极布局AI场景化存储。在AI数据中心、端侧AI、AI终端、机器人等多个新兴领域加大投入。新发布的UFS4.1搭载自研主控WM7400,助力端侧AI产品(如AI手机、智能汽车、人形机器人等)实现实时决策。在穿戴领域,推出的超小尺寸eMMC解决了AI穿戴轻薄高性能的矛盾,应用于国际国内一线厂商的智能眼镜、智能手表中,并在2026年CES上推出新一代超薄ePOP5x。同时,为应对AI工作负载挑战,积极布局数据中心高性能存储产品,发布SOCAMM2,完善了在AI智算中心领域的产品矩阵。

展望未来,江波龙将持续加强AI存储场景定制化开发,通过定制化产品研发和与产业链伙伴合作,为AI智算中心建设注入关键存力。深化存储硬件与AI终端的协同创新,衍生出更多形态、更细分场景的集成封装创新存储产品矩阵,拓展至端侧AI、智能车载、工业物联网等多元场景,让行业客户、AI开发者、创作者都能借助更优质的存储体验,突破创新边界。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 端侧AI存储新选择:中国高端半导体存储企业江波龙推出高性能mSSD

    随着AI应用的不断深化,存储需求正经历着深刻变革。云端AI存储追求极致的性能与带宽,以支撑大规模的AI训练与推理任务,而端侧AI存储,则更侧重于高性能容量、低延迟以及高度集成化,以满足实时智能交互的需求。特别是在AI手机、AI PC、具身机器人等端侧设备中,存储设备不仅需要提供足够的数据吞吐能力,还需在有限的空间内实现高效散热,确保设备的稳定运行。作�

  • MicroComputer深度评测:助力Token吞吐飙升,忆联AM6D1 PCIe 5.0 SSD击穿AI存储墙

    本文介绍了忆联AM6D1 PCIe 5.0固态硬盘,它采用4通道DRAMLess主控设计,旨在解决AI大模型本地部署中的存储瓶颈。测试显示,其顺序读写速度分别超过11400MB/s和10900MB/s,随机4K读写性能达1600K+ IOPS和1150K+ IOPS。在加载32B和235B大模型时,耗时仅10.52秒和53.99秒,游戏载入测试也表现出色。同时,其功耗控制优秀,空闲功耗可低至3mW。该产品兼顾高性能与低成本,适合从工作站到移动设备的全场景AI部署需求。

  • OpenClaw引爆存储刚需,忆联AM6D1铸就AI智能体存储“心脏”

    四月初,开源AI智能体OpenClaw(“龙虾”)发布v2026.4.5版本,将视频、音乐、图像三大核心生成能力内置为系统原生工具,同时首次引入“Dreaming”记忆系统,通过模拟人类睡眠记忆机制,分三阶段(Light/Deep/REM)优化智能体记忆能力,从而实现7x24小时无人值守运行。然而,功能的大幅升级也对存储性能提出了更严苛的要求:百GB级大模型需秒级加载,海量小文件须无卡顿频繁读写,

  • 领跑企业智能体赛道!九科信息 bit-Agent以 Harness 标准护航企业 AI 落地

    文章介绍了AI领域新概念“Harness”,指一套包裹在大模型/Agent外围的全链路执行与治理系统,旨在让强大但不稳定的大模型能安全、稳定、高效地应用于企业业务。文章指出,当前大模型能力已足够应对多数企业需求,但落地瓶颈在于如何确保其安全可靠。Harness通过工程化系统设计,提供执行规则、安全边界、审计留痕等完整管控体系,而非单一技术模块。文中以九科信息的bit-Agent为例,展示了成熟企业级Harness系统的关键设计,如“探索-固化”双循环机制、最小权限原则、双重审计体系、智能异常处理等,强调其已成功在制造、金融等多个行业核心场景落地。文章认为,Harness的兴起标志着AI竞争核心正从模型能力转向工程化落地能力。

  • 超擎数智获授“ODCC AI存储实验室”, 创新引领大规模推理应用新纪元

    4月2日,在2026 ODCC春季全会上,超擎数智获授“ODCC AI存储实验室”,标志着AI存储产业迈向标准化、规模化发展的新阶段。该实验室将聚焦AI存储与推理场景的关键技术演进,推动行业标准建设与生态协同发展,为产业高质量发展提供有力支撑。超擎数智凭借在AI应用全栈方案领域的技术积累与实践能力,成为实验室的运营方,未来将联合产业头部力量,共建开放协同生态,加速技术成果转化与标准落地,为AI推理与千行百业应用创新发展提供关键支撑。

  • IC China 2026:以芯筑基新质生产力 链动半导体产业新征程

    半导体作为现代科技产业的基石和引擎,是推动技术突破迈向产业化的关键支撑。2026年政府工作报告提出培育壮大新兴产业和未来产业,打造集成电路等新兴支柱产业,全链条推进关键核心技术攻关。“十五五”规划纲要强调打好关键核心技术攻坚战,全链条推动集成电路、工业母机、高端仪器、先进材料等重点领域取得决定性突破。在此背景下,第二十三届中国国际半导体博览会(IC+China2026)紧扣国家“十五五”发展战略和新质生产力培育要求,依托二十二载行业积淀和品牌影响力,以“全链条展示、终端应用赋能、龙头企业带动”为主线,将于2026年11月12-14日在北京·国家会议中心盛大开幕。本届博览会展览面积预计5万平方米,预计汇聚全球超800家参与企业、吸引超10万人次观众,深度整合全球半导体全产业链资源,打造集展览展示、商业洽谈、技术交流、资本对接、政策解读和人才培养于一体的高端产业合作平台,推动产业链上下游精准协同创新,为我国半导体产业筑牢自主可控根基、加速制造强国建设注入强劲动能。

  • 瞩目中国经济高峰论坛!itc总裁赵定金获评“2025新经济百名杰出人物”,itc保伦股份入选“2025新经济百佳创新企业”

    近日,“2025年度中国经济高峰论坛暨第二十三届经济人物年会”在京隆重举行,itc保伦股份凭借在音视频行业的卓越创新表现与强大影响力,脱颖而出,荣膺“2025新经济百佳创新企业”这一殊荣;同时,itc总裁赵定金凭借非凡的领导力与创新精神,获评“2025新经济百名杰出人物”。自2003年以来,中国经济高峰论坛已连续成功举办22届。凭借其高规格、高质量、高影响力的特点�

  • 绿算技术亮相NVIDIA GTC 2026暨AI存储闭门会,分享存算协同新突破

    随着大模型推理从“可用”迈向“高效”,软硬件协同、数据通路重构与存算新架构已成为全球AI基础设施竞争的核心高地。近日,2026年NVIDIA亚太区AI存储研讨会在NVIDIA总部成功举办。作为AI存储与算力基础设施领域的创新先锋,绿算技术产品及研发中心总经理孔维海受邀出席,并在闭门会议中分享了前沿技术观点与绿算产品体系的最新进展。本次研讨会汇聚了NVIDIA、超云、DaoC

  • 个推受邀出席2026鸿蒙SDK交流会,成功入选鸿蒙首批认证SDK名单

    4月14日,2026鸿蒙SDK交流会在成都召开。每日互动(个推)作为华为鸿蒙生态重要伙伴,旗下全栈开发者服务产品通过高质量鸿蒙适配与生态落地成果,荣获鸿蒙首批SDK评测认证,并入选鸿蒙首批64款SDK名单,彰显了公司在鸿蒙生态建设中的领先技术实力与核心生态价值。个推自2010年起深耕开发者服务赛道,持续为数十万APP客户提供专业的SDK产品与全链路运营增长解决方案。未来,个推将继续紧跟鸿蒙生态发展节奏,深耕开发者服务技术创新,持续优化产品性能与适配能力,为鸿蒙生态的高质量发展注入更多动能。

  • 破解AI推理“内存墙”:忆联自研芯片,以压缩技术重塑KV Cache存储效率

    2026年3月,谷歌研究院发布TurboQuant压缩算法,旨在解决大模型推理中KV Cache内存占用过高的问题。该技术可压缩KV缓存,实现内存占用降低6倍、推理速度提升8倍的潜力。面对KV Cache随上下文窗口扩大而指数级膨胀的挑战,产业界正从算法压缩与硬件优化两方面寻求突破。作为国内企业级存储方案提供商,忆联创新性地将高效压缩技术融入AI推理场景,打造兼具高性能与成本优势的硬件级KV Cache存储优化方案,为行业破解“内存墙”困局提供新路径。

今日大家都在搜的词: