首页 > 传媒 > 关键词  > 人工智能竞赛最新资讯  > 正文

硬科技突围:一颗中国芯片,如何破解AI算力的“存储墙”难题?

2026-01-23 11:17 · 稿源: 站长之家用户

在全球人工智能竞赛进入白热化的今天,一股“寂静的洪流”正在算力底座深处涌动。当业界将绝大部分目光聚焦于GPU的算力峰值时,一个更为隐蔽却致命的瓶颈——“存储墙”——正严重制约着千亿级大模型的实际效能。特别是在推理场景中,为注意力机制服务的KV Cache,其巨大的容量需求与严苛的延迟要求,让无数高端GPU的算力在等待数据的过程中被悄然“闲置”。

近日,一家名为绿算技术的中国公司,发布了一款可能改变游戏规则的芯片产品,试图从系统架构的底层,为这道高墙打开一个缺口。

一场瞄准“黄金微秒”的精准狙击

“这不是一次简单的国产替代,而是一次针对AI负载的体系化重构。”绿算技术研发负责人向记者表示。他们推出的,是一款基于自主IP的NVMe over Fabrics桥接芯片(擎翼)原型。

NVMe-oF技术并非新概念,它本是数据中心实现存储资源池化、构建解耦架构的关键。然而,绿算技术的突破在于,首次将这项通用技术,深度锤炼为专为AI大模型KV Cache场景服务的“超高速数据通道”。

其核心目标极其明确:将GPU显存中“住不下”的KV Cache,卸载到由标准NVMe SSD构建的庞大存储池中,并且必须保证访问延迟足够低——低至20微秒以内。这个数字,是确保大模型能够流畅进行实时推理交互的关键阈值。

“业界过去要么选择昂贵到无法规模化的HBM显存扩容,要么忍受软件方案带来的上千微秒延迟。我们的目标,就是在性价比与性能之间,开辟出‘黄金微秒’这一最优路径。”该负责人解释道。

架构重塑:从“缓慢爬楼”到“数据高铁”

为实现这一目标,绿算技术选择了最艰难但最彻底的路径:全硬件卸载。

在传统方案中,一个来自网络的存储访问请求,需要经历网卡、CPU、内存、操作系统协议栈、多次数据拷贝,最后才能抵达SSD,过程如同在城市街道中多次换乘。

而在这颗芯片内部,设计团队构建了一条 “数据高铁”。通过自主设计的七大核心IP核协同工作——从网络包的物理层接收、RDMA协议解析,到NVMe命令转换,直至通过PCIe写入SSD——全部在硬件逻辑中一气呵成,无需CPU介入,实现了零拷贝传输。

尤为关键的是,芯片内集成了一个智能的预取与缓存管理引擎。它能够学习Transformer模型的注意力访问模式,主动预取数据,将看似随机的KV Cache访问,变得更为有序和高效。

实测数据背后的商业价值

根据绿算技术提供的在自研LightBoat2300加速卡上的测试报告,该原型方案取得了令人瞩目的成绩:489万次4KB随机读取每秒的IOPS,以及高达21.8GB/s(单卡双100Gbe)的顺序读取带宽。这几乎达到了理论峰值,在实际的业务场景它足以应对数百个并发请求对海量KV数据的随机抓取。

“擎翼”存储ASIC卸载芯片原型

更值得关注的是其能效表现。在提供极致性能的同时,芯片级典型功耗小于10瓦(设计目标)。对比动辄数百瓦的GPU,这一功耗几乎可以忽略不计,但对于构建绿色、集约化的超大规模智算中心而言,其乘数效应带来的电费节约将是天文数字。

“擎翼”NVMe-oF ASIC芯片架构图

“我们的价值不仅在于单颗芯片的性能。”绿算技术市场总监指出,“在于它提供了一种革命性的成本结构。”他算了一笔账:使用该方案将KV Cache扩展至TB级,其成本可能仅为单纯依靠顶级HBM显存扩容方案的十分之一甚至更低。这为AI公司在大规模部署千亿模型服务时,提供了至关重要的经济性保障。

生态与未来:能否撬动产业格局?

任何底层硬件的成功,都离不开与现有生态的融合。对此,绿算技术显得颇有信心。该芯片方案兼容英伟达GPU Direct Storage技术,并可被CUDA环境直接识别为标准NVMe设备。这意味着主流推理框架如vLLM、TensorRT-LLM等,理论上无需修改代码即可获得能力提升。

目前,该公司已与国内多家头部云厂商及大模型企业启动概念验证测试。行业观察人士认为,此类专用加速芯片的涌现,标志着AI算力竞争正从单一的“算力芯片竞赛”,演进到“系统级效率竞赛”。谁能从计算、存储、网络的协同优化中挤出更多性能、节约更多成本,谁就将在下一阶段的商业落地中占据主动。

绿算技术的这次尝试,无疑为国产AI基础设施的全栈创新提供了一个充满想象力的注脚。这颗小小的芯片,能否真正穿透“存储墙”,成为激活AI算力潜能的“关键一子”?市场和技术将共同给出答案。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 百惠金控:金融创科迎新局 港股人工智能IPO受热捧

    接近农历,港股市场交易气氛依然炽热。百惠金控观察到,科创板块已成为带动大市上行的核心引擎,尤其是人工智能(AI)相关股份持续受资金青睐,板块热度持续攀升。香港特区政府财政司司长近日表示,香港作为国际金融中心,将凭借“金融联动创科”的效应乘势而上,进一步放大香港的制度优势。市场对科创板块的积极情绪,在年初新股表现中得以充分印证。2026年1月2

  • 支持普通话、英语和粤语零样本歌声合成,Soul App 联合吉利汽车研究院人工智能中心(AIC)、天津大学及西北工业大学开源SoulX-Singer

    过去一年,生成式AI在音乐行业不断创造新体验,但歌唱语音合成(SVS)领域进展相对缓慢。为拓展这一领域,Soul AI Lab联合吉利汽车研究院人工智能中心、天津大学视听认知计算团队和西北工业大学音频语音与语言处理研究组,正式开源歌声合成模型SoulX-Singer。这是一个面向真实应用场景设计的高质量零样本歌声合成模型,基于超过42000小时训练数据,覆盖多语言、多音色及多种演唱风格,在稳定性、可控性与泛化能力方面均达到当前开源SVS模型中的领先水平。

  • 2025新质生产力示范案例发布 华为云CloudMatrix AI Infra荣获人工智能TOP案例

    AI正从参数比拼转向赋能实体经济的“下半场”,行业重心转向千行百业的规模化应用落地。华为云凭借基于CloudMatrix+AI Infra的智算云服务,成功入选“人工智能基础与产业融合”示范案例TOP5,彰显了中国式AI与产业融合发展新路径。华为云坚持深入产业,解决行业难题,通过“车-网-云”协同的AI无人驾驶全栈方案,赋能矿山、水泥等行业实现降本增效。未来,华为云将继续坚持“做难而正确的事”,推动AI真正深入行业场景,共同迈向新质生产力发展的下一程。

  • 声网联合美团、xbench 发布 AI 外呼智能体评测基准:VoiceAgentEval

    随着生成式AI在客服领域的快速渗透,AI外呼已从最初的辅助沟通工具进化为企业优化客户沟通、提升运营效率的关键环节,应用场景覆盖招聘、销售、客服等,并成为生成式AI最广泛应用场景之一。同时,随着对话式AI技术的不断成熟,AI外呼正从“能通话”向“会沟通、懂需求”的专家级交互升级。为全面客观评估模型在AI外呼中的综合性能,声网联合美团、xBench共同推出用于评估大模型在AI外呼场景性能表现的综合评测标准VoiceAgentEval,旨在填补行业空白,让从业者更清晰地了解在真实AI外呼业务场景中各个大模型的综合性能表现,并为AI外呼场景的落地与技术体验的优化提供核心参考依据。

  • 宜信唐宁乌镇倡议:设首席AI官让人工智能更有温度

    在2025年世界互联网大会乌镇峰会上,宜信公司CEO唐宁前瞻性地呼吁企业设立“首席AI官”,以此推动人工智能从冰冷的效率工具,演进为富有人文温度的协同伙伴。这一主张不仅呼应了峰会“共筑开放合作、安全普惠的数智未来”的主题,更为AI的发展路径注入了“暖心”与“共情”的关键维度,描绘出一幅人机深度协作、效率与温度并重的新图景。在乌镇峰会“前沿人工智能

  • 国产存储突破:绿算GP7000率先适配英伟达G3层KV Cache架构,AI推理效率提升17倍

    2026年1月15日,绿算技术宣布其GP7000全闪存存储平台已通过英伟达适配,成为全球首批、也是唯一支持G3级KV Cache分层存储的国产化方案。该平台采用存算分离架构,结合以太网闪存簇设计,为下一代AI工厂建设提供关键基础设施支撑,能显著提升推理吞吐量并降低延迟,实现成本与效率的最优平衡。

  • 忆联UH812a以MLPerf Storage标杆级验证,重塑AI存储效能,奠定智能算力基石

    随着AI大模型进入万亿参数时代,传统存储性能测试已难以真实反映存储系统在实际训练场景中对成本与效率的核心影响。为此,全球权威AI基准测评组织MLCommons正式推出MLPerf Storage基准测试套件,为行业建立起一套贴合实际、具有指导意义的权威评估框架。区别于传统存储性能测试,MLPerf Storage基准的核心价值在于直接评估存储系统能否支撑GPU集群达到并维持高利用率——这直

  • 对话AI NEWS平台Ancher:曾经信息流产品的胜利者,如今却决定颠覆它

    ​如果一定把“00后”作为AI浪潮的原著民,那么Ancher创始人Vincent Wu 显然不是最“典型”的AI创业者。 他是经历了从报纸到网站,再到移动客户端,美国三代媒体平台系统性变革的“老兵”。在长期以白人为绝对主导的美国新闻业态里里,顶着一张同样“非典型”的亚洲面孔,成为了极少数打入西方新闻业核心圈层的华人: 他担任过美国最大的本地资讯平台NewsBreak COO,更早之

  • 宸境科技重磅发布具身智能新品牌及全栈技术矩阵,突破空间智能技术边界

    1月28日,许境科技在杭州发布具身智能新品牌“LooperRobotics”及全栈技术产品矩阵。该矩阵包括Insight全自主空间智能相机、TinyNav高性能导航算法库和RoboSpatial空间编辑工具链,旨在通过软硬件一体化创新,打造驱动通用机器人的标准化感知底座。此次发布标志着公司在关键感知硬件、底层算法及应用工具链领域取得重要突破,为机器人成为继汽车、手机之后的物理任务基础设施提供坚实支撑。

  • 2026智能客服技术演进与选型指南:从AI Agent到全链路服务重构

    文章探讨了AI+Agent驱动的智能客服发展趋势。根据Gartner报告,超92%企业已在核心业务中部署AI+Agent。全球智能客服市场规模预计突破1500亿元,年复合增长率超35%。技术架构呈现三大演进方向:大模型融合架构、全链路自动化引擎、云原生弹性架构。文章对比了2026年主流技术方案,包括全链路AI+Agent型(如羚羊Quick Service)、垂直领域深度优化型(如网易七鱼、晓多科技)及跨国合规与生态整合型(如Zendesk、华为云云客服)。核心选型需考量技术深度与业务适配性,企业决策者可遵循“界定战略目标-评估业务复杂度-规划技术演进”路径进行选择。结论指出,技术选型需综合考量厂商技术纵深、生态广度及行业理解能力,全链路AI+Agent路径因技术前瞻性、架构开放性与业务价值深度的平衡,展现出成为企业“智能服务中心”的潜力。

今日大家都在搜的词: