首页 > 传媒 > 关键词  > 智算中心最新资讯  > 正文

鲲泰新闻|神州鲲泰创新智算之旅北京站开幕,发布全新智算架构和液冷整机柜产品应对 “多云、异构、绿色”挑战

2024-05-22 08:56 · 稿源: 站长之家用户

5月17日,神州鲲泰智算中国行北京站盛大召开。在本次活动上,神州鲲泰针对用户对大模型训练、大算力需求的痛点,重磅发布多云异构环境下智算中心绿色着陆的产品及方案,包含异构智算调度运营平台HISO、异构智算加速平台HICA以及一体化交付的神州鲲泰全液冷整机柜产品。帮助企业客户在整个异构智算资源池中匹配更优算力组合、有效提升GPU服务器集群的资源使用效率、有效解决节点和节点间互联的能耗问题,助力企业构建性能更优、成本更低、能效更高、能耗更低的智算基础设施底座。

神州数码信创业务集团副总裁、研发中心总经理周川

异构智算时代,企业智算落地如何降本增效?

在全新的异构智算时代,多云异构智算基础设施已成为必然,一个独特的“智算攒机时代”,正在呼唤全新的智算架构。与此同时,随着大模型和生成式AI加速落地,大量的模型训练和推理任务,在唤醒底层算力海量需求的同时,也对资源利用率提出了巨大挑战。有关资料显示,OpenAI训练GPT-4的MFU(Model Flops Utility)在32%到36%之间。而目前行业MFU利用率的平均水平仅为30%~40%,智算资源利用率的提升将为企业节省大量成本。

能耗是另一个大的挑战,算力本身会成为主要的能耗和二氧化碳排放来源,更不用说GPU的能耗本身是CPU能耗的2倍以上。根据MIT研究表明,未来人类需要为人工智能相关应用新增10%的能源需求,形象的说,“炼”大模型会比炼钢还费电。对于一个企业来说,每新增一个用于智算的机架,其运行一年约等于增加15w度电,够100个家庭生活用电一年,约排放1.5吨二氧化碳,能耗和碳排放都十分巨大。

尽精微,神州鲲泰“双管齐下”提升算力资源利用率

神州鲲泰推出异构智算调度运营平台HISO、异构智算加速平台HICA,有效解决智算集群间以及集群内面临的复杂异构兼容问题,显著提升算力资源的利用率。

神州鲲泰异构智算调度运营平台HISO基于云原生技术,整合GPU硬分片和虚拟分片技术,能实现GPU资源虚拟化或池化,完成跨集群之间的算力调度。根据用户业务需求,该平台可以在整个异构智算资源池中匹配优选算力组合,提升GPU服务器集群的资源使用率。神州鲲泰异构智算调度运营平台HISO拥有将国内外GPU资源混合组网、混搭调度,算力精细隔离等关键能力,可以“像管理一台GPU主机一样,管理和调度多个集群的GPU资源”。通过GPU容器直通、IaaS卸载,该平台加速了模型加载时间,相比传统方式,模型加载速度提升3倍。同时还能实时收集智算中心全栈、全链路指标,发现和定位软硬件故障,实现算力可观测性。

神州鲲泰异构智算加速平台HICA则着重解决集群内部的算力调度优化问题,通过屏蔽集群内底层算力生态差异,突破关键计算效率瓶颈,有效提升算力利用率与可用性。神州鲲泰异构智算加速平台HICA通过自研的服务层、中间适配层以及调度编排算法,采用数据并行、模型并行等方式,把并行计算任务进行有效分解,匹配相应的软件栈和算力资源来承接。当GPU资源变化,该平台可以实时动态调度计算子任务并调整模型拓扑和架构,以充分聚合各种算力资源。

神州鲲泰异构智算加速平台HICA具有一云多芯特性,支持国内外主流AI芯片,可实现训练推理任务在不同品牌、不同型号芯片组成的智算集群中的混合训练推理,预计可降低20%闲置算力。

此外,根据不同模型、不同算子之间集合通信流特点,该平台还可自适应选择最合适的通信参数,达到更高的通信效率。同时,在不同模型运行过程中,充分考虑存算比要求的不同,异构智算加速平台HICA还可从宏观到微观多个尺度选择最合适的存算比资源加载模型,加速吞吐,降低时延,使MFU提升10~20%,MBU提升5%。

硅光+液冷冷却跳动的电表,一体化交付让客户省时省力

随着生成式AI落地对算力需求的暴涨、带宽的狂飙提速,智算中心节点的高能耗痛点日益加剧。而以一个万卡智算中心为例,采用200G接口互联,需要约80000个光模块,其互联所需的能耗则占到总体的5%。节点间互联的高能耗问题也日益凸显。

针对节点间互联的能耗问题,神州鲲泰采用硅光技术,通过单光源多调制器,降低调制器电压,同时采用分布式反馈激光器等一系列技术,有效降低25%的互联能耗。

同时,针对节点的能耗问题,神州鲲泰推出液冷服务器,通过一体化冷板,智能流量调节来提升系统的散热效率,采用负压管线系统,漏液近端探测技术,并联动服务管控系统提升冷却系统的可靠性,有效降低30%的节点能耗。

而为了帮助客户规避接口多、接头复杂、现场实施部署难度大、实施周期长等难题,数云原力大会2024开幕式上,神州鲲泰正式发布“KunTai Pod2000全液冷整机柜”方案产品。采用一体化交付方式,有效降低部署和运维的复杂度的同时,整机柜还能实现100 %全液冷及高性价比液冷方案,助力数据中心PUE迈向1.15,并且凭借60KW+的最 大单柜功率,实现1.5倍于行业平均水平的能效比,在为客户提供强大算力的同时有效控制能耗成本。

神州鲲泰整机柜产品搭载鲲鹏+昇腾主板,一体化交付的方式已经在运营商客户得到落地验证,广受好评,硅光+液冷更是让整机柜产品得到全面升级,为客户打造出功能更强、能耗更低、效率更高的智算中心。

随着2022年底ChatGPT的问世,AI正成为推动创新的核心引擎。现在的IT基础架构已经到了一个由模型和算力相互促进,螺旋上升的新发展阶段。面对新的发展机遇,神州鲲泰从智算中心系统整体性能提升出发,提出了走新智算架构之路的策略,建立了高通量、高并行、有效率,低能耗的多样化智算架构。新的智算架构能够快部署、低投入地突破算力瓶颈,构建出性能更优、成本更低、能效更高的智算中心。未来每个智算中心,每台计算机都将是这样一种新的智算架构,从而实现算力的普惠。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • CCF HPC China 2025 | KunLun HPC解决方案赋能多行业创新升级 并获全国产异构创新HPC解决方案奖

    8月13-16日,第21届CCF全国高性能计算学术年会在鄂尔多斯召开。本届大会以"绿动计算 超智融合"为主题,汇聚顶尖学术阵容,展示全产业链成果与前沿趋势。河南昆仑技术有限公司重点展示双生态硬件平台、极致性能软件平台、应用迁移调优服务等HPC全栈解决方案。其KunLun HPC解决方案实现100%国产化,兼容x86设备,具备东西方双生态兼容、高性能、高能效等五大特点,并获全国产异构创新HPC解决方案奖。昆仑技术同期发布KunLun V2系列服务器产品,助力科研转化和行业智能化升级。多位专家在主题论坛分享国产超算软件生态建设经验,强调需持续投入构建自主可控的超算软件生态。昆仑技术表示将持续深耕高性能计算领域,推动行业向智能高效方向发展。

  • 极速、可靠、灵活|移动云以云硬盘为前沿技术落地提供有力支撑

    2025年4月,第十八届中国电子信息年会在成都成功召开。移动云举办“AI时代先进存力:构建新型数据存储前沿基础设施”论坛,聚焦AI大模型应用下数据存储、处理及算法框架的高要求。论坛探讨了存储技术、架构和安全创新,旨在推动存储技术发展,构建先进可靠的存力基石。移动云推出极速型云硬盘等产品,满足高IOPS、低延迟需求,并全面接入国产大模型DeepSeek,降低技术门槛,助力用户实现智能化升级。通过完善产品矩阵,满足多元业务场景需求,为千行百业数字化转型提供高质量存储保障。

  • 业界首例中国电信完成长距跨DC分布式无损智算推理网络技术验证

    中国电信广东公司联合中国电信研究院在智算网络领域实现重大突破,成功完成DeepSeek-671B满血版长距跨数据中心分布式无损计算推理网络技术验证。该成果为企业按需扩容算力及推理数据本地化存储提供了突破性技术方案,标志着中国电信在智算网络技术创新上迈出关键一步。

  • 湾区最强大脑!itc保伦股份携手5A级智算中心打造智慧办公天花板

    中国联通粤港澳大湾区枢纽(韶关)数据中心是国家"东数西算"工程重要节点,一期总投资11.45亿元,占地98亩,总建筑面积12.4万平方米,规划4.8万个标准机柜,总能耗规模达120MW,具备十万卡超大规模集群承载能力和万亿级AI大模型训练能力。该中心是全国首批、粤港澳大湾区首个获5A级智算中心服务能力认证的数据中心,采用"5+4+31+X"全国多级算力资源布局架构,是广东省承接"东数西算"战略的重要节点。ITC为其打造了集无纸化会议系统、LED显示屏、数字会议系统等于一体的智慧会议解决方案,提升运营效率。

  • 百度第一!百度智能云一见领跑视觉大模型赛道

    IDC最新报告显示,百度智能云凭借"文心一言4.5"多模态大模型和"文心X1"深度思考模型,在视觉大模型领域综合实力排名第一。其智能云平台在算法模型、工程化落地、行业覆盖等方面优势显著,已服务餐饮、钢铁、电力等20多个行业,帮助数百家企业实现生产全环节的数字化管理。典型案例包括:为风电集团构建安全管控系统,巡检效率提升6-10倍;与中钢研合作金相分析模型,检测准确率达95%;助力连锁餐饮实现全国1000+门店服务质量量化管理,订单覆盖率从5%提升至95%。通过"云端大模型+边缘小模型"的协同架构,在保障精度的同时大幅降低应用成本,推动专业级视觉AI应用普及。

  • 战地6测试抢先体验 教你怎么解决延迟高/掉ping/进服务器排队人数不动

    《战地6》测试开启后,玩家普遍遇到高延迟、掉ping和服务器排队问题。文章建议使用加速器解决,推荐"古怪加速器":1)每日0-16点免费加速;2)智能选择最优线路降低延迟;3)可暂停时长更人性化。针对EA海外服务器问题,加速器能稳定连接。此外还推荐"帧数大师"优化游戏设置,解决卡顿发热问题。8月7日起分批测试,抓紧体验流畅对战。

  • INDEMIND:高需求和低渗透之间,服务机器人为何规模化落地难?

    在全球经济面临劳动力短缺的背景下,加之疫情的进一步催化,服务机器人取得了蓬勃发展,预计 2022 年,全球服务机器人市场规模将达到 217 亿美元,然而尽管如此,在高速发展之下,机器人的行业渗透率却并未明显提高,究其原因在于红利之后,机器人的规模化商业落地过程走的并不顺利...作为国内领先的机器人关键AI技术供应商,INDEMIND在机器人的导航、避障、决策、AI交

  • 寒武纪智能芯片赋能多模态大模型应用

    大模型快速发展推动人工智能技术迈向新阶段,从解决特定任务的弱人工智能向处理通用复杂任务的强人工智能演进。IDC报告显示,2024年中国大模型开发平台市场规模达16.9亿元,人工智能算力市场约190亿美元,预计2025年将达259亿美元。寒武纪等企业专注AI芯片研发,推出多款处理器及加速卡产品,支持大模型训练推理及多模态任务,并与产业链合作共同推进人工智能产业发展。

  • 聚焦大模型训练效率提升 北大依托昇腾突破细粒度混合并行技术

    北京大学崔斌教授团队在鹏城实验室支持下,研发了面向大模型的高效分布式训练框架。该框架通过统一训练接口、细粒度模型切分与并行策略搜索算法,解决了训练任务多样性和负载不均问题,实现训练效率提升15%。同时利用昇腾计算资源管理能力,优化硬件通信效率,通过计算通信重叠技术提升流水线效率。研究成果已在NeurIPS等顶会发表3篇论文,展现了国产算力在分布式计算领域的潜力,为AI产业自主化突破提供支撑。

  • 2025年大模型选型核心指南:Beyond GPT-4,如何理性评估Qwen、DeepSeek等强者?

    大模型选择能力已成为AI时代企业核心竞争力。文章提出“能力-成本-场景”三维评估框架,强调需超越单一指标崇拜,基于客观数据和实际需求进行理性选择。通过Qwen2-Plus与DeepSeek-V3的对比分析,展示不同模型在特定场景下的差异化优势。建议企业建立科学选型流程,采用专业工具进行多维度评估,通过三阶段验证策略确保决策既数据驱动又经实践检验。最终目标是选择最适合业务场景的模型,而非盲目追求流行模型。

今日大家都在搜的词: