首页 > 传媒 > 关键词  > 云存储最新资讯  > 正文

四年三次,再获殊荣!阿里云斩获全球存储顶会FAST’26论文

2026-03-04 08:59 · 稿源: 站长之家用户

近日,在刚刚结束的存储领域顶级学术会议 FAST '26(24th USENIX Conference on File and Storage Technologies)上,阿里云联合上海交通大学、Solidigm共同发表的论文《Here, There and Everywhere: The Past, the Present and the Future of Local Storage in Cloud》荣获最佳论文奖(Best Paper Award)。本届大会全球仅两篇论文获此殊荣,这也是阿里云存储研究在过去四年内第三次摘得这一国际学术界最高荣誉,标志着中国在云存储基础架构领域的创新实力已持续领跑全球。

在云原生时代,本地存储长期面临“性能极致”与“工程可用”的博弈:既要满足微秒级低时延,又要兼顾多租户隔离、弹性运维与高可用。本次获奖论文基于阿里云大规模生产实践,首次系统性地梳理了本地盘技术从纯软件优化、到软硬协同的“三代进化史”,并提出了本云融合存储新架构——Latte。这一成果不仅给出了清晰的技术演进路线图,更以体系化的工程经验,为打破存储性能、成本与可靠性的“不可能三角”提供了全新范式。

(图:本云结合存储新架构)

论文用咖啡的“提纯”过程生动比喻了存储技术的不断进化,就像制作咖啡一样,第一代存储技术如同浓缩咖啡(Espresso),阿里云首创用户态轮询架构,虽然速度飞快,释放了NVMe硬盘潜能,但牺牲了CPU效率,像为了喝杯咖啡却把厨房全搬空;到第二代技术如同双份浓缩咖啡(Doppio),引入硬件辅助提升隔离性,但硬件固化难以适配SSD的快速迭代,就像买了台只能煮特定豆子的机器,硬盘技术一升级就掉队;最终进化到第三代技术,如同极致精粹咖啡(Ristretto),三代软硬协同设计的技术架构,既保留了硬件的高速通道,又用可编程的“智能大脑”灵活适配新硬盘,让存储在大规模应用中接近物理盘极限,真正平衡了速度、安全与未来升级。

基于此,论文提出的下一代混合架构Latte,创造性地将本地存储的极速响应和云端的无限弹性融合成一体:通过智能调度,以低于10%的CPU开销实现95.6%的长尾延迟预测准确率;高效缓存策略告别“扔旧存新”,几乎不增加写入损耗却能实现80%的读取命中率;弹性容灾机制让本地吸收突发流量,云端默默兜底,哪怕服务器突然宕机,系统也能快速恢复并提供服务。

(图:IO延迟对比实验结果)

这项技术前瞻性地探索了本云融合的未来,让云存储真正实现“既要速度,又要安全,还要弹性”的全能时代。尤其在AI大模型推理成为主流负载的今天,Latte架构的价值相当凸显。它能够构建高性能、大容量、高性价比的弹性缓存层,有效解决GPU因等待数据读取慢的痛点。通过“本地吸收+智能分流”,Latte显著提升了响应速度与资源利用率。

从Espresso到Latte,不仅是存储形态的演变,更是云计算底层架构从“资源孤岛”走向“池化融合”的缩影。阿里云凭借此项成果,向业界展示了如何利用软硬协同与本云融合的技术红利,为云原生数据库、AI推理及大数据分析奠定更坚实的基石,引领全球存储技术迈向智能化新阶段。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • OpenClaw引爆存储刚需,忆联AM6D1铸就AI智能体存储“心脏”

    四月初,开源AI智能体OpenClaw(“龙虾”)发布v2026.4.5版本,将视频、音乐、图像三大核心生成能力内置为系统原生工具,同时首次引入“Dreaming”记忆系统,通过模拟人类睡眠记忆机制,分三阶段(Light/Deep/REM)优化智能体记忆能力,从而实现7x24小时无人值守运行。然而,功能的大幅升级也对存储性能提出了更严苛的要求:百GB级大模型需秒级加载,海量小文件须无卡顿频繁读写,

  • 端侧AI存储新选择:中国高端半导体存储企业江波龙推出高性能mSSD

    随着AI应用的不断深化,存储需求正经历着深刻变革。云端AI存储追求极致的性能与带宽,以支撑大规模的AI训练与推理任务,而端侧AI存储,则更侧重于高性能容量、低延迟以及高度集成化,以满足实时智能交互的需求。特别是在AI手机、AI PC、具身机器人等端侧设备中,存储设备不仅需要提供足够的数据吞吐能力,还需在有限的空间内实现高效散热,确保设备的稳定运行。作�

  • 简化运维,Dell PowerStore革新Kubernetes容器化存储体验

    在Kubernetes环境中管理存储时,IT团队常面临存储配置分散、工具并存、运维节奏各异的问题。戴尔科技采用容器存储模块(CSM)框架,通过统一机制为Kubernetes团队交付完善且优化的管理体验。PowerStore等存储产品借助CSM,将快照、复制、授权及可观测性等企业级原生存储能力直接开放给Kubernetes平台,并通过单一Operator实现全场景覆盖,简化安装部署与生命周期管理。这一方案不仅提供一致的跨平台数据服务与工作流体验,更将存储无缝融入Kubernetes原生生态系统,显著提升运维效率与竞争力。

  • 阿里云百炼正式上线“记忆库”功能 限时免费向所有用户开放

    阿里云百炼近日推出记忆库”功能,使AI Agent具备跨会话的长期记忆能力,真正实现越聊越懂用户”的个性化体验。目前,该功能限时免费向所有用户开放,用户可通过API直接调用,或通过OpenClaw等Agent产品一键安装。 当前,OpenClaw等主流AI Agent普遍缺乏长期记忆系统,在长周期对话和跨会话任务中容易出现上下文丢失导致的记忆断层问题。用户需要反复说明需求和习惯才能保�

  • 华为Pura X Max上架官网:5款配色、4款存储!最高16GB+1TB

    全球首款横向大阔折旗舰华为Pura X Max已正式上架华为商城,5款配色 4款存储版本全面公布。 存储共分四档:标准版12GB 256GB、12GB 512GB;典藏版16GB 512GB、16GB 1TB。

  • 阿里云第九代Intel实例升级案例:货拉拉实现性能提升与成本优化

    文章讲述了货拉拉作为覆盖全球14个市场、中国内地363座城市的互联网物流龙头,在业务高速增长中面临算力瓶颈。其依赖的阿里云第七代Intel实例难以应对大促流量爆发、稳定性下降和扩容受限三大痛点。为此,货拉拉全面升级至阿里云第九代Intel企业级实例,凭借其性能提升30%、单位算力成本降低5%等优势,成功支撑了“金秋拉货节”等大促高峰,实现业务平稳增长与成本优化,破解了长期算力困局。

  • 超擎数智获授“ODCC AI存储实验室”, 创新引领大规模推理应用新纪元

    4月2日,在2026 ODCC春季全会上,超擎数智获授“ODCC AI存储实验室”,标志着AI存储产业迈向标准化、规模化发展的新阶段。该实验室将聚焦AI存储与推理场景的关键技术演进,推动行业标准建设与生态协同发展,为产业高质量发展提供有力支撑。超擎数智凭借在AI应用全栈方案领域的技术积累与实践能力,成为实验室的运营方,未来将联合产业头部力量,共建开放协同生态,加速技术成果转化与标准落地,为AI推理与千行百业应用创新发展提供关键支撑。

  • 载誉同行!骆驼蓄电池荣膺2026驰加加盟商大会最佳协同奖

    近日,2026年度驰加全国加盟商大会隆重召开,骆驼蓄电池凭借全链路协作能力、终端落地效能与一体化服务优势,获评“白银合作伙伴·最佳协同奖”。荣誉既是行业平台对双方多年战略共建、资源联动成果的权威背书,也标志着骆驼在合作协同效率、终端赋能体系与项目执行标准层面,全面获得渠道体系高度认可,为双方深化长期战略合作奠定坚实基础。深耕行业积淀 强强�

  • 破解AI推理“内存墙”:忆联自研芯片,以压缩技术重塑KV Cache存储效率

    2026年3月,谷歌研究院发布TurboQuant压缩算法,旨在解决大模型推理中KV Cache内存占用过高的问题。该技术可压缩KV缓存,实现内存占用降低6倍、推理速度提升8倍的潜力。面对KV Cache随上下文窗口扩大而指数级膨胀的挑战,产业界正从算法压缩与硬件优化两方面寻求突破。作为国内企业级存储方案提供商,忆联创新性地将高效压缩技术融入AI推理场景,打造兼具高性能与成本优势的硬件级KV Cache存储优化方案,为行业破解“内存墙”困局提供新路径。

  • 盈米基金亮相2026金融AI联盟大会,携手阿里云共赴“AI原生”新时代

    2026年4月2日,阿里云金融AI联盟大会在杭州举办,盈米基金受邀出席并正式成为联盟合作伙伴,将以“Agent伙伴”和“全栈AI服务伙伴”双重身份参与生态建设。会上,阿里云宣布启动“超级智能体计划”,联合生态伙伴共享超百亿规模的金融通用智能体市场。联盟历经六年深耕,从云原生迈向AI原生新阶段,已构建起“MaaS伙伴+Agent伙伴+全栈AI服务伙伴”的三维生态格局,全面打通智能投研、客服、审计等全场景应用。盈米基金作为买方投顾引领者,将深度参与阿里云超级智能体计划,通过MCP和Skill等方式开放专业能力,助力更多金融机构构建专业的金融服务智能体,推动行业从“财富管理+AI”的工具应用阶段向“AI原生”的智能服务模式跨越。

今日大家都在搜的词: