首页 > 传媒 > 关键词  > 正文

为AI加速而生 英特尔CPU能跑200亿参数大模型

2023-12-22 17:32 · 稿源: 站长之家用户

(导语)实用化 AI 算力又升上了一个新台阶。

在人工智能的应用领域,出现了一些让人始料未及的趋势:很多传统企业开始选择在CPU平台上落地和优化AI应用。

例如制造领域在高度精细且较为耗时的瑕疵检测环节,就导入了CPU及其他产品组合,来构建横跨“云-边-端”的AI 缺陷检测方案,代替传统的人工瑕疵检测方式。

再比如亚信科技就在自家OCR-AIRPA方案中采用了CPU作为硬件平台,实现了从FP32 到INT8/BF16 的量化,从而在可接受的精度损失下,增加吞吐量并加速推理。将人工成本降至原来的1/ 5 到1/9,效率还提升了约5- 10 倍。

在处理AI制药领域最重要的算法——AlphaFold2 这类大型模型上,CPU同样也“加入群聊”。从去年开始,CPU便使AlphaFold2 端到端的通量提升到了原来的23. 11 倍;而现如今,CPU让这个数值再次提升3. 02 倍。

上述这些CPU,都有个共同的名字——至强,即英特尔®️ 至强®️ 可扩展处理器。

为什么这些AI任务的推理能用CPU,而不是只考虑由GPU或AI加速器来处理?

这里历来存在很多争论。

很多人认为,真正落地的AI应用往往与企业的核心业务紧密关联,在要求推理性能的同时,也需要关联到它的核心数据,因此对数据安全和隐私的要求也很高,因此也更偏向本地化部署。

而结合这个需求,再考虑到真正用AI的传统行业更熟悉、更了解也更容易获取和使用CPU,那么使用服务器CPU混合精度实现的推理吞吐量,就是他们能够更快和以更低成本解决自身需求的方法了。

面对越来越多传统AI应用和大模型在CPU上的落地优化,“用CPU加速AI”这条道路被不断验证。这就是在数据中心中,有70%的推理运行在英特尔® 至强® 可扩展处理器上的原因。

最近,英特尔的服务器CPU完成了又一次进化。 12 月 15 日,第五代英特尔® 至强® 可扩展处理器正式发布。英特尔表示,一款为AI加速而生,而且表现更强的处理器诞生了。

人工智能正在推动人类与技术交互方式的根本性转变,这场转变的中心就是算力。

英特尔CEO帕特·基辛格(Pat Gelsinger)在 2023 英特尔ON技术创新大会表示:“在这个人工智能技术与产业数字化转型飞速发展的时代,英特尔保持高度的责任心,助力开发者,让AI技术无处不在,让AI更易触达、更可见、透明并且值得信任。”

第五代至强 为AI加速

第五代英特尔® 至强® 可扩展处理器的核心数量增加至 64 个,配备了高达320MB的L3 缓存和128MB的L2 缓存。不论单核性能还是核心数量,它相比以往的至强都有了明显提升。在最终性能指标上,与上代产品相比,在相同功耗下平均性能提升21%,内存带宽提升高达16%,三级缓存容量提升到了原来的近 3 倍。

更为重要的是,第五代至强® 可扩展处理器的每个内核均具备AI加速功能,完全有能力处理要求严苛的AI工作负载。与上代相比,其训练性能提升多达29%,推理能力提升高达42%。

在重要的AI负载处理能力上,第五代英特尔® 至强® 可扩展处理器也交出了令人满意的答卷。

首先要让CPU学会高效处理AI负载的方法:在第四代至强® 可扩展处理器上,英特尔面向深度学习任务带来了矩阵化的算力支持。

英特尔®️ AMX就是至强CPU上的专用矩阵计算单元,可被视为CPU上的Tensor Core,从第四代至强® 可扩展处理器开始成为内置于CPU的AI加速引擎。

第五代至强®️ 可扩展处理器利用英特尔®️ AMX与英特尔®️ AVX- 512 指令集,配合更快的内核,以及速度更快的内存,可以让生成式AI更快地在其上运行,无需独立的AI加速器就能执行更多工作负载。

借助在自然语言处理 (NLP) 推理方面实现的性能飞跃,这款全新的至强® 可支持响应更迅速的智能助手、聊天机器人、预测性文本、语言翻译等工作负载,可以在运行参数量 200 亿的大语言模型时,做到时延不超过 100 毫秒。

据了解,11. 11 期间,京东云便通过基于第五代英特尔® 至强® 可扩展处理器的新一代服务器,成功应对了业务量激增。与上一代服务器相比,新一代京东云服务器实现了23%的整机性能提升,AI计算机视觉推理性能提升了38%,Llama v2 推理性能也提高了51%,轻松hold住用户访问峰值同比提高170%、智能客服咨询量超 14 亿次的大促压力。

除此之外,第五代英特尔® 至强® 可扩展处理器也在能效、运营效率、安全及质量等方面实现了全面提升,提供了向前代产品的软件和引脚兼容性支持,以及硬件级安全功能和可信服务。

国内云服务大厂阿里云也在发布会上披露了其实测体验数据,基于第五代英特尔® 至强® 可扩展处理器及英特尔® AMX、英特尔® TDX加速引擎,阿里云打造了 “生成式AI模型及数据保护”的创新实践,使第八代ECS实例在实现了全场景加速和全能力提升情况下,更加固了安全性能,且保持实例价格不变,普惠客户。

数据显示,其在数据全流程保护的基础上,AI推理性能提高25%、QAT加解密性能提升20%、数据库性能提升25%,以及音视频性能提升15%。

英特尔表示,第五代至强® 可扩展处理器可为AI、数据库、网络和科学计算工作负载带来更强大的性能和更低的TCO,将目标工作负载的每瓦性能提升高达 10 倍。

对先进AI模型实现原生加速

为让CPU能够高效处理AI任务,英特尔把AI加速的能力提升到了「开箱即用」的程度。

英特尔®️ AMX除了可以加速深度学习的推理、训练以外,现在已经支持了流行的深度学习框架。在深度学习开发者常用的TensorFlow、PyTorch上,英特尔® oneAPI深度神经网络库 (oneDNN) 提供了指令集层面的支持,使开发人员能够在不同硬件架构和供应商之间自由迁移代码,可以更轻松地利用芯片内置的AI加速能力。

在保证了AI加速直接可用之后,英特尔利用高性能开源深度学习框架OpenVINO™ 工具套件,帮助开发者实现了一次开发、多平台部署。它可以转换和优化使用热门框架训练好的模型,在多种英特尔硬件的环境中快速实现,帮用户最 大程度地利用已有资源。

OpenVINO™ 工具套件最 新的版本也加入了对大型语言模型 (LLM) 性能的改进,可以支持生成式AI工作负载,包括聊天机器人、智能助手、代码生成模型等。

OpenVINO™ 工具套件2

通过这一系列技术,英特尔让开发者们能够在几分钟内调优深度学习模型,或完成对中小型深度学习模型的训练,在不增加硬件和系统复杂性的前提下获得媲美独立AI加速器的性能。

比如在先进的预训练大语言模型上,英特尔的技术就可以帮助用户完成快速部署。

用户可以从最热门的机器学习代码库Hugging Face中下载预训练模型LLaMA2,然后使用英特尔®️ PyTorch、英特尔®️ Neural Compressor等将模型转换为BF16 或INT8 精度版本以降低延迟,再使用PyTorch进行部署。

英特尔表示,为了能够紧跟AI领域的潮流,有数百名软件开发人员正在不断改进常用的模型加速能力,让用户能够在跟上最 新软件版本的同时,获得对于先进AI模型的支持。

第五代至强® 可扩展处理器的实力,目前已在部分大厂进行了验证。火山引擎与英特尔合作升级了第三代弹性计算实例。

目前,火山引擎已通过独有的潮汐资源并池能力,构建百万核弹性资源池,能够以近似包月的成本提供按量使用体验,降低上云成本。基于第五代英特尔® 至强® 可扩展处理器,火山引擎第三代弹性计算实例整机算力再次提升了39%,应用性能最 高提升了43%。

这只是个开始。可以预见,很快会有更多科技公司的应用能够从第五代至强®️ 可扩展处理器的性能中获益。

下一代至强已经现身

未来,人们对于生成式AI的需求还将不断扩大,更多的智能化应用将会改变我们的生活。以计算能力为基础,万物感知、万物互联、万物智能的时代正在加速到来。

面对这样的趋势,英特尔正在加紧打造再下一代的至强CPU,它们面向AI的「专业化」程度还会更高。

在最近披露的英特尔数据中心路线图上,下一代至强® 处理器将对不同工作负载、场景配备不同的核心,其中主打计算密集型与AI任务的型号会使用侧重性能输出的核「P-core」,面向高密度与横向扩展负载的型号则会使用有更高能效的核「E-core」,这两种不同的核心架构并存的设计,既满足部分用户对极 致性能的追求,也能兼顾到可持续发展绿色节能的需求。

未来,英特尔还将如何实现晶体管和芯片性能的飞跃,在AI算力上还能有什么样的跃升?

让我们拭目以待。

推广

特别声明:以上内容(如有图片或视频亦包括在内)均为站长传媒平台用户上传并发布,本平台仅提供信息存储服务,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任,相关信息仅供参考。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述法律文件后,将会依法依规核实信息,沟通删除相关内容或断开相关链接。

  • 相关推荐
  • 阅文加码、红果入场:200亿市场的“漫剧”会是下一个风口吗?

    ​天是越来越冷了,但2025年的短剧江湖依旧热得发烫。 年初的《好一个乖乖女》,上线一周抖音主话题播放量破6亿,一个月后,红果总观看量破10亿,男一号柯淳全平台涨粉超百万;上月热播的《盛夏芬德拉》播放量破30亿,它不仅构建了一个爱情乌托邦,还凭借电影级视听和细腻喜剧,让人在观剧过程中获得极大的心理慰藉与情感释放。 与此同时,短剧一哥红果月活再次飙

  • 腾讯控股:2025年第三季度,国际市场游戏收入首次突破200亿元大关至208亿元

    11月13日,腾讯公布2025年第三季度业绩,网络游戏总收入636亿元。其中国际市场游戏收入同比增长43%,首次突破200亿元大关,达208亿元,主要得益于Supercell旗下游戏收入增长、近期收购工作室贡献及新作《消逝的光芒:困兽》销量表现。本土市场游戏收入428亿元,同比增长15%,主要受益于《三角洲行动》等新游戏及《王者荣耀》《和平精英》等长青游戏收入增长,新手游《无畏契约》亦有贡献。

  • 2025乌镇峰会:易鑫发布汽车金融行业首个Agentic大模型XinMM-AM1

    易鑫集团在2025世界互联网大会乌镇峰会上发布汽车金融行业首个Agentic大模型XinMM-AM1。该模型具备300亿参数、响应延迟低于200ms等技术优势,能提升获客、风控与运营效率,优化用户体验。通过全链路智能决策能力,推动行业从"单点智能"转向"整体高效"。配套SaaS平台已覆盖超4万家经销商及百余家金融机构,显著提高融资通过率与业务质量,填补领域技术空白,引领汽车金融智能化发展。

  • AI日报:阿里千问APP公测;Veo 3.1上线多图参考;超级小爱AI大模型“随心修图”上线

    本期AI日报聚焦多项技术突破:阿里千问APP公测,基于Qwen3模型对标ChatGPT;谷歌Veo 3.1支持三图融合生成8秒视频;小米推出"随心修图"功能与7B多模态模型Miloco;谷歌Flow集成Nano Banana模型实现智能抠图;多模态AI工具DeepEyesV2可执行代码与网络搜索;NotebookLM升级支持图像导入检索;JetBrains推出DPAI Arena测试编码AI性能。全球AI竞争持续升温,产品迭代加速。

  • 小米超级小爱AI大模型推出随心修图功能

    小米宣布超级小爱AI大模型推出随心修图功能,用户只需一句话即可轻松修出具有大片质感的照片。该功能有两种使用方式:在相册大图页面直接唤醒AI或通过应用上传照片并输入指令。使用需满足版本要求:超级小爱需v7.8.50及以上,相册编辑功能需v2.1及以上,相册本身需v4.3.0.30及以上。目前仅限Xiaomi HyperAI机型支持在相册大图页使用。超级小爱于2024年12月面向正式版用户开放升级,支持全局多模态交互和自然语音搜索,提升使用体验。

  • AI日报:谷歌Gemini 3 Pro Preview模型上线;Cloudflare文件异常致全球宕机;百度Q3 AI收入96亿元

    谷歌发布Gemini 3大模型及Antigravity AI开发平台,支持参数灵活调整;Cloudflare因配置异常致全球服务中断6小时;微软测试AI文件连接器,允许Claude直接读取本地文件;百度Q3 AI收入96亿元,萝卜快跑订单激增;小米AI眼镜新增直播与语音控制功能;TikTok推出AI内容推荐调节选项;微软将Copilot全面集成至Office应用;谷歌推出实时生成交互界面的Generative UI技术;Manus发布Browser Operator,将浏览器升级为全功能AI代理。

  • 卢伟冰:小米17系列销量已破200万 是双11唯一能对抗iPhone的产品

    小米集团合伙人、集团总裁卢伟冰在业绩电话会上透露,小米17系列开售5天销量破100万、11月初销量突破200万,比上代快了很多。 双十一期间,小米17 Pro Max在各大平台均获得6K 价位段国产手机销量、销售额双冠军,也是唯一一款能对抗iPhone的产品。 根据此前小米官方数据显示,小米17全系开售仅5分钟便刷新了2025年国产智能手机全价位段的新机首销纪录。 其中,小米17 Pro Max

  • Billus AI高交会全球首发多模态大模型 以AI Agent重构创意产业文明进化路径

    2025年11月15日,Billus AI在高交会首发多模态大模型Billus0.57EDIT及“超级员工智能体”初阶版,依托自研生存式大模型与AI Agent技术,打破创意领域垂直局限,构建覆盖文创、时尚、艺术等全场景智能创作生态。该模型通过自然语言指令直达创意成果,实现从平面图到施工图的全流程高效生成。同时,Billus AI同步打造“创意设计超级员工+产业链智能体”体系,探索生成式创意与供应链智能推荐的新商业路径,助力行业从“经验驱动”向“数据智能”跃迁。

  • 50人团队、1亿美元ARR,AI PPT还在续写“神话”?

    AI 生成 PPT 可以说是去年的热门赛道,尤记得关于这类产品是否具有真正竞争力的热烈讨论,而2025年9月份的数据显示,赛道头部的明星创企 Gamma 却已经默默接近3000万的访问量。并且,今天官宣了由 a16z 领投的6800万美元 B 轮融资,融资后估值达到21亿美元。 而不仅 Gamma,根据 AI 产品榜数据,9月份,AIPPT 赛道的 Top3产品流量平均涨幅30%+,更有一款

  • 百度发布全球最大通用智能体 活跃用户超2000万

    在百度世界2025大会上,百度正式宣布其智能体产品GenFlow3.0已在百度文库与百度网盘全端上线,目前活跃用户突破2000万,已成为全球规模最大的通用智能体,致力于帮助用户在工作、学习和生活中成为超级个体”。 GenFlow3.0被定位为全球首个全端通用智能体,具备更强大的多模态通用能力,可实现全模态内容的输入、处理与输出。 该产品采用中心化原生Multi-Agent架构,结合行�

今日大家都在搜的词: