首页 > 传媒 > 关键词  > 智算中心最新资讯  > 正文

鲲泰新闻|神州鲲泰创新智算之旅北京站开幕,发布全新智算架构和液冷整机柜产品应对 “多云、异构、绿色”挑战

2024-05-22 08:56 · 稿源: 站长之家用户

5月17日,神州鲲泰智算中国行北京站盛大召开。在本次活动上,神州鲲泰针对用户对大模型训练、大算力需求的痛点,重磅发布多云异构环境下智算中心绿色着陆的产品及方案,包含异构智算调度运营平台HISO、异构智算加速平台HICA以及一体化交付的神州鲲泰全液冷整机柜产品。帮助企业客户在整个异构智算资源池中匹配更优算力组合、有效提升GPU服务器集群的资源使用效率、有效解决节点和节点间互联的能耗问题,助力企业构建性能更优、成本更低、能效更高、能耗更低的智算基础设施底座。

神州数码信创业务集团副总裁、研发中心总经理周川

异构智算时代,企业智算落地如何降本增效?

在全新的异构智算时代,多云异构智算基础设施已成为必然,一个独特的“智算攒机时代”,正在呼唤全新的智算架构。与此同时,随着大模型和生成式AI加速落地,大量的模型训练和推理任务,在唤醒底层算力海量需求的同时,也对资源利用率提出了巨大挑战。有关资料显示,OpenAI训练GPT-4的MFU(Model Flops Utility)在32%到36%之间。而目前行业MFU利用率的平均水平仅为30%~40%,智算资源利用率的提升将为企业节省大量成本。

能耗是另一个大的挑战,算力本身会成为主要的能耗和二氧化碳排放来源,更不用说GPU的能耗本身是CPU能耗的2倍以上。根据MIT研究表明,未来人类需要为人工智能相关应用新增10%的能源需求,形象的说,“炼”大模型会比炼钢还费电。对于一个企业来说,每新增一个用于智算的机架,其运行一年约等于增加15w度电,够100个家庭生活用电一年,约排放1.5吨二氧化碳,能耗和碳排放都十分巨大。

尽精微,神州鲲泰“双管齐下”提升算力资源利用率

神州鲲泰推出异构智算调度运营平台HISO、异构智算加速平台HICA,有效解决智算集群间以及集群内面临的复杂异构兼容问题,显著提升算力资源的利用率。

神州鲲泰异构智算调度运营平台HISO基于云原生技术,整合GPU硬分片和虚拟分片技术,能实现GPU资源虚拟化或池化,完成跨集群之间的算力调度。根据用户业务需求,该平台可以在整个异构智算资源池中匹配优选算力组合,提升GPU服务器集群的资源使用率。神州鲲泰异构智算调度运营平台HISO拥有将国内外GPU资源混合组网、混搭调度,算力精细隔离等关键能力,可以“像管理一台GPU主机一样,管理和调度多个集群的GPU资源”。通过GPU容器直通、IaaS卸载,该平台加速了模型加载时间,相比传统方式,模型加载速度提升3倍。同时还能实时收集智算中心全栈、全链路指标,发现和定位软硬件故障,实现算力可观测性。

神州鲲泰异构智算加速平台HICA则着重解决集群内部的算力调度优化问题,通过屏蔽集群内底层算力生态差异,突破关键计算效率瓶颈,有效提升算力利用率与可用性。神州鲲泰异构智算加速平台HICA通过自研的服务层、中间适配层以及调度编排算法,采用数据并行、模型并行等方式,把并行计算任务进行有效分解,匹配相应的软件栈和算力资源来承接。当GPU资源变化,该平台可以实时动态调度计算子任务并调整模型拓扑和架构,以充分聚合各种算力资源。

神州鲲泰异构智算加速平台HICA具有一云多芯特性,支持国内外主流AI芯片,可实现训练推理任务在不同品牌、不同型号芯片组成的智算集群中的混合训练推理,预计可降低20%闲置算力。

此外,根据不同模型、不同算子之间集合通信流特点,该平台还可自适应选择最合适的通信参数,达到更高的通信效率。同时,在不同模型运行过程中,充分考虑存算比要求的不同,异构智算加速平台HICA还可从宏观到微观多个尺度选择最合适的存算比资源加载模型,加速吞吐,降低时延,使MFU提升10~20%,MBU提升5%。

硅光+液冷冷却跳动的电表,一体化交付让客户省时省力

随着生成式AI落地对算力需求的暴涨、带宽的狂飙提速,智算中心节点的高能耗痛点日益加剧。而以一个万卡智算中心为例,采用200G接口互联,需要约80000个光模块,其互联所需的能耗则占到总体的5%。节点间互联的高能耗问题也日益凸显。

针对节点间互联的能耗问题,神州鲲泰采用硅光技术,通过单光源多调制器,降低调制器电压,同时采用分布式反馈激光器等一系列技术,有效降低25%的互联能耗。

同时,针对节点的能耗问题,神州鲲泰推出液冷服务器,通过一体化冷板,智能流量调节来提升系统的散热效率,采用负压管线系统,漏液近端探测技术,并联动服务管控系统提升冷却系统的可靠性,有效降低30%的节点能耗。

而为了帮助客户规避接口多、接头复杂、现场实施部署难度大、实施周期长等难题,数云原力大会2024开幕式上,神州鲲泰正式发布“KunTai Pod2000全液冷整机柜”方案产品。采用一体化交付方式,有效降低部署和运维的复杂度的同时,整机柜还能实现100 %全液冷及高性价比液冷方案,助力数据中心PUE迈向1.15,并且凭借60KW+的最 大单柜功率,实现1.5倍于行业平均水平的能效比,在为客户提供强大算力的同时有效控制能耗成本。

神州鲲泰整机柜产品搭载鲲鹏+昇腾主板,一体化交付的方式已经在运营商客户得到落地验证,广受好评,硅光+液冷更是让整机柜产品得到全面升级,为客户打造出功能更强、能耗更低、效率更高的智算中心。

随着2022年底ChatGPT的问世,AI正成为推动创新的核心引擎。现在的IT基础架构已经到了一个由模型和算力相互促进,螺旋上升的新发展阶段。面对新的发展机遇,神州鲲泰从智算中心系统整体性能提升出发,提出了走新智算架构之路的策略,建立了高通量、高并行、有效率,低能耗的多样化智算架构。新的智算架构能够快部署、低投入地突破算力瓶颈,构建出性能更优、成本更低、能效更高的智算中心。未来每个智算中心,每台计算机都将是这样一种新的智算架构,从而实现算力的普惠。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 算电协同新征程,2025 伊顿智算数据中心大客户峰会(北京站)成功举办

    2025年伊顿智算数据中心大客户峰会(北京站)于9月19日成功举办,聚焦“AIDC的算电协同”主题。会议汇集互联网企业、数据中心建设方、芯片厂商等,探讨全球AIDC增长趋势下电力基础设施挑战与出海战略。伊顿展示了行业研究成果、解决方案布局及供应链韧性,强调能源供给与管理对算力扩张的关键性。通过本土创新与合作,伊顿推出新一代高功率UPS产品,并探索多能源接入架构,助力数据中心实现高效、可靠、可持续的能源保障。峰会凸显伊顿在算力时代的引领能力,致力于构建稳健的能源底座,支撑全球智能算力安全运行。

  • 模型即服务,应用即未来:阿里云助力中小企业AI应用规模化落地

    阿里云针对中小企业AI落地“不会用、用不起、用不好”痛点,提出全链路解决方案。数据显示,77%全球中小企业已定期使用AI工具,中国市场需求增长强劲。阿里云通过通义大模型技术迭代、AIStack一体化底座及4R服务框架,降低使用门槛与成本。典型案例如万小智AI员工实现“分钟级交付”,博登智能提升数据处理效率7倍。方案覆盖制造、医疗等12大行业,助力企业从“有算力”到“能落地”,推动AI应用成为行业常态。

  • 云天励飞“算力积木”联手OISA,突破万亿级MoE大模型推理集群的Scale up瓶颈

    云天励飞近日加入OISA生态,携手产业伙伴共建国产AI芯片互联体系,为中国算力生态注入新动力。OISA是中国移动提出的开放互联标准体系,旨在打造全向、对等、智能的互联新范式,解决智算集群内存互访难题,为大规模并行计算提供技术基石。云天励飞凭借在AI芯片与算力架构的长期积累,将依托“算力积木”架构的模块化优势,在大规模推理集群中实现高效互联,助力突破万级MoE大模型推理瓶颈,推动国产算力生态发展。

  • 没想到,音频大模型开源最彻底的,居然是小红书

    不难发现,近几个月,开源频频成为 AI 社区热议的焦点。尤其是对于国内科技公司来说,开源成为主旋律。根据 Hugging Face 中文 AI 模型与资源社区的数据显示,国内厂商在七八月接连开源33款、31款各类型大模型。 这些开源成果大多落在了文本、图像、视频、推理、智能体以及世界模型领域,而音频生成占比很小。

  • GEO排名查询工具推荐:霸屏AI大模型答案的核心方法,做好AI大模型排名优化

    随着AI大模型成为用户获取信息的主要入口,AIBase推出GEO排名查询工具,帮助品牌监测在豆包、DeepSeek、文心一言等主流AI平台中的曝光情况。该工具支持多平台检测、关键词追踪、可视化数据展示,可精准分析品牌是否被推荐、出现频次及具体场景,为制定AI大模型排名优化策略提供数据支撑。在GEO时代,抢占AI回答推荐位意味着获得全新流量入口。

  • AI落地难?阿里云AI先锋新成员实战证明,对症的场景化方案才是关键

    本文探讨AI技术如何通过精准定位与协同合作破解行业难题。文章指出,AI渗透速度远超传统技术,IDC预测2025年全球AI支出将达3370亿美元。以阿里云为例,其通过算力底座与通用技术链接垂直领域伙伴,提供"技术+场景"一体化方案。文中列举挖地兔、集思科技等6家企业案例,展示AI在量化投资、电商直播等场景的实际应用,强调AI落地需找准对应场景,而阿里云的技术支撑与生态协同正推动千行百业实现数字化转型。

  • AI日报:豆包大模型1.6-vision发布;DeepSeek发布V3.2-exp模型;Claude Sonnet4.5发布

    本期AI日报聚焦多项技术突破:DeepSeek发布V3.2-exp模型,通过稀疏注意力机制降低API成本50%;Anthropic推出Claude Sonnet 4.5,在编码任务表现卓越;ChatGPT新增即时结账功能,实现对话界面直接购物;OpenAI将推出AI版TikTok,所有内容由Sora2模型生成;百度地图升级小度想想2.0,提供智能出行服务;蚂蚁集团开源万亿参数模型Ring-1T-preview;DeepMind提出“帧链”概念,推动视频模型实现全面�

  • 900P大考见真章:天玑9500 GPU强度封神

    9月手机市场迎来A19 Pro、天玑9500、骁龙8 Gen 5三款旗舰芯片。今年最大变化是零售机数据提前公开,参考价值直线上升。游戏负载持续加重,《星穹铁道》分辨率已冲至900P+,对手机GPU架构与能效提出更高要求。天玑9500在GPU能效表现亮眼,极客湾测试中一骑绝尘,3DMark实测性能与能效曲线均压制当代旗舰。联发科GPU硬实力已成“基操”,稳定高画质与低功耗兼顾。建议购机前优先查看零售机实测数据,期待更多实测帮助用户稳妥选择。选机看真功夫,把游戏稳帧交给天玑9500。

  • 易鑫发布Agentic大模型,破解汽车金融风控与效率痛点

    9月12日,易鑫集团在“IT Value Summit数字价值年会”上入选“2025创新场景年度AI应用TOP榜”,成为汽车金融科技领域唯一上榜企业。首席科技官贾志峰指出,易鑫以AI为核心驱动力,通过自研大模型“智鑫多维”等技术,显著提升风控水平与融资通过率,推动行业智能化转型。平台已连接全国4.2万家经销商及上百家金融机构,服务覆盖牧民、基层员工等多元群体,体现技术普惠价值。未来将持续加大科技创新投入,深化国内普惠金融服务,并探索技术出海,助力全球汽车金融行业迈向更高水平智能化。此次上榜不仅是对其技术实力的认可,更反映出行业正加速拥抱智能化变革。

  • 我国首个政务大模型安全国家标准发布 百度深度参与制定

    日前,我国首个针对政务大模型的安全国家标准《政务大模型应用安全规范》(下称《规范》)正式发布。百度作为核心参编单位,凭借其在人工智能安全及政务服务领域的深厚积累,深度参与了该标准的制定工作,为政务大模型的安全选用、部署运行、护栏建设和合规落地提供了专业支持。《规范》由国家工业信息安全发展研究中心牵头,联合百度等国内领先企业共同制定�

今日大家都在搜的词: