首页 > 业界 > 关键词  > Nvidia最新资讯  > 正文

Nvidia第二季度交付900吨AI芯片 Meta可能是单客户

2023-09-19 11:30 · 稿源:站长之家

文章概要:

1. Nvidia在第二季度交付了900吨AI芯片,其中大部分可能供应给Meta,引发了市场的广泛关注。

2. Omdia的研究表明,对Nvidia AI芯片的需求激增,导致服务器平均价格上涨30%,并且市场规模预测将增长8%。

3. 尽管AI硬件需求增加,但AI的实际采用增长相对较慢,未来预计领域特定AI模型将成为主要关注点。

站长之家(ChinaZ.com) 9月19日 消息:根据Omdia研究公司称,芯片巨头Nvidia在第二季度交付了900吨其旗舰型号H100GPU的AI芯片,这一庞大的交付量主要是由于对其AI芯片需求的急剧增加。

Omdia报告指出,大量的GPU正涌入超大规模数据中心,这对服务器的出货量造成了不利影响。与去年相比,服务器的交付量下降了100万台,降幅达到了17%。7月,该指数15年来首次下跌。

英伟达,人工智能,芯片,AI,NVIDIA GH200 Grace Hopper

然而,与此相反的是,Omdia报告了AI GPU的需求的急剧增长,AI硬件的价格上涨也使服务器的平均价格同比增长了超过30%。这一对服务器配置的“戏剧性变化”,Omdia预测市场规模将达到1140亿美元,同比增长8%。

从Omdia的数据来看,Nvidia将是最大的受益者之一,因为其第二季度135亿美元的收入中,有22%来自一位单一客户,很可能是Meta。Omdia还预计,微软、谷歌和“其他一些前十大云服务提供商”将成为Nvidia的“优先客户”。

对AI硬件的需求预计将持续到2024年上半年,尤其是因为芯片制造厂TSMC正在增加H100芯片所需的封装能力。

然而,值得注意的是,AI硬件的需求增加并不意味着AI的实际使用也同样增长迅速。Omdia的报告指出,“目前正在经历的对AI培训能力的快速投资不应被误解为对AI采用的快速增长”。

Omdia预计,AI浪潮将持续到2027年。未来五年,大型语言模型的数量将与面向消费者的应用程序一样多。AI将转向更专业化的用途,广泛的模型将逐渐被边缘模型所取代,其中包括Med-PaLM、Bio-GPT、BioBert和PubMedBert等行业特定模型,这些模型将通过对ChatGPT或Claude等广泛、多模态的前沿模型的精细调整而构建。

然而,随着企业和其他组织对AI的采用增加,AI服务器的需求预计将随时间减少。这是因为领域特定的AI模型具有“显著较少”的参数、数据集大小、标记和时代,这是根据研究公司的观察得出的结论。

举报

  • 相关推荐
  • 大家在看

今日大家都在搜的词:

热文

  • 3 天
  • 7天