首页 > 业界 > 关键词  > AMD最新资讯  > 正文

AMD 推出「生成式 AI 加速器」 MI300X AI 芯片以挑战英伟达的主导地位

2023-06-14 09:06 · 稿源:站长之家

站长之家(ChinaZ.com) 6月14日消息:AMD 宣布其最先进的人工智能图形处理器(GPU)MI300X 将于今年晚些时候开始向部分客户发货。根据分析师的说法,这一宣布对英伟达构成了最强有力的挑战,英伟达目前在 AI 芯片市场上占据了超过 80% 的市场份额。

amd-dc-ai-technology-premiere-keynote-deck-for-press-and-analysts-slide-61.png

图片来自 AMD

GPU 是由 OpenAI 等公司用于构建先进的 AI 程序(如 ChatGPT)的芯片。如果开发人员和服务器制造商将 AMD 所称的「加速器」作为英伟达产品的替代品采用,这可能为该芯片制造商开辟一个巨大的未开发市场,该公司以其传统的计算机处理器而闻名。

AMD 首席执行官苏姿丰在周二的旧金山投资者和分析师会议上表示,AI 是该公司「最大最具战略性的长期增长机会」。苏姿丰表示:「我们预计数据中心的 AI 加速器市场从今年的约 300 亿美元,以超过 50% 的复合年增长率增长到 2027 年的 1500 亿美元以上。」

虽然 AMD 没有透露价格,但此举可能对英伟达的 GPU 施加价格压力,例如 H100 型号的 GPU 可能售价高达 30,000 美元或更高。较低的 GPU 价格可能有助于降低提供生成 AI 应用的高成本。

AI 芯片是半导体行业的亮点之一,而传统驱动半导体处理器销售的个人电脑销售却下滑。

上个月,AMD 首席执行官苏姿丰在财报电话会议上表示,尽管 MI300X 将在今年秋季提供样品,但明年将开始大规模出货。苏姿丰在周二的演讲中分享了有关芯片的更多细节,她说:「我喜欢这颗芯片。」

MI300X 芯片和其 CDNA 架构专为大型语言模型和其他先进 AI 模型而设计。苏姿丰表示:「其核心是 GPU。GPU 正在推动生成 AI 的发展。」MI300X 最多可以使用 192GB 的内存,这意味着它可以容纳比其他芯片更大的 AI 模型。例如,竞争对手英伟达的 H100 只支持 120GB 的内存。

生成 AI 应用的大型语言模型运行计算量越来越大,因此需要大量内存。AMD 演示了 MI300X 运行名为 Falcon 的 400 亿参数模型。OpenAI 的 GPT-3 模型有 1750 亿参数。苏姿丰指出:「模型的规模正在变得更大,实际上你需要多个 GPU 来运行最新的大型语言模型。」由于 AMD 芯片具有更多的内存,开发人员就不需要使用那么多的 GPUs 了。

AMD 还表示将提供一种名为 Infinity Architecture 的解决方案,将八个 M1300X 加速器组合在一个系统中。英伟达和 Google 也开发了类似的系统,将八个或更多的 GPU 组合在一个单独的盒子中用于 AI 应用。

过去,AI 开发人员通常更喜欢英伟达芯片,因为英伟达有一个完善的软件包称为 CUDA,可以让他们访问芯片的核心硬件功能。AMD 在周二表示,他们为自己的 AI 芯片开发了自己的软件,称为 ROCm。

AMD 总裁 Victor Peng 表示:「尽管这是一个过程,但我们在构建强大的软件堆栈方面取得了很大进展,该软件堆栈与开放的模型、库、框架和工具生态系统兼容。」

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词: