首页 > 业界 > 关键词  > 正文

赚疯了!NVIDIA H100利润高达1000%:一块卡卖20多万

2023-08-18 21:51 · 稿源: 快科技

乘着人工智能热潮,今年NVIDIA的AI计算卡真的赚疯了。

快科技8月18日消息, 据Tomshardware报道,《巴伦周刊》资深撰稿人Tae Kim最近在社交媒体上发布的帖子估计,NVIDIA每销售一台H100加速卡,就能获得1000%的利润。

以美元来计算,一台H100加速卡最便宜的PCIe版本价格也要25,000至30,000美元(大约20多万元人民币),由于市场一直缺货,终端售价实际上要更高。

但据金融咨询公司Raymond James估算,H100加速卡包括芯片、PCB等部件的成本只有3,320 美元,只有售价的十分之一。

当然,产品开发需要时间和资源,考虑到H100等产品的产品开发生命周期中的工程师和其他参与者,在计算每款平均产品开发成本之前,也必须考虑到英伟达的研发成本。

据悉,NVIDIA电子硬件工程师的平均年薪约为20.2万美元,开发像H100这样的芯片很可能需要多名专业工作者的数千小时的投入,所有这些也必须被考虑进去。

Tomshardware此前报道称,NVIDIA今年内计划出售超过55万块H100加速卡,其中大部分是出货给美国公司,不过这一说法还没有被得到NVIDIA证实。

举报

  • 相关推荐
  • NVIDIA明年上马3nm!私人定制 但不是游戏

    NVIDIA将在明年推出采用台积电3nm级工艺的下一代高性能计算GPUBlackwellGB100,以及下一代加速卡B100。NVIDIA现有的GH100GPU使用的是台积电4nm工艺是定制版。Intel、AMD、高通等也都会纷纷升级台积电的3nm工艺。

  • NVIDIA官方自曝下下代GPU:2025年这么着急?

    NVIDIA最近在一份面向投资者的演示文件中,意外披露了下下代GPU架构的路线图。NVIDIA目前有两种截然不同的GPU架构,一是面向消费级游戏和图形的AdaLovelace,二是面向高性能计算和人工智能的Hopper。Blackwell架构在此前路线图上要到2024年才会登场再下代2025年就推出,时间过于紧凑,所以这个X架构的定位可能会有所不同。

  • Nvidia第二季度交付900吨AI芯片 Meta可能是最大单客户

    根据Omdia研究公司称,芯片巨头Nvidia在第二季度交付了900吨其旗舰型号H100GPU的AI芯片,这一庞大的交付量主要是由于对其AI芯片需求的急剧增加。Omdia报告指出,大量的GPU正涌入超大规模数据中心,这对服务器的出货量造成了不利影响。这是因为领域特定的AI模型具有“显著较少”的参数、数据集大小、标记和时代,这是根据研究公司的观察得出的结论。

  • 美国最受欢迎CEO榜单出炉:NVIDIA黄仁勋夺魁 库克仅第四

    据美国科技公司职场社区Blind调查,NVIDIACEO黄仁勋成为美国最受员工欢迎的CEO,支持率高达96%。今年8月,Blind面向硅谷科技员工展开了全美CEO支持率调查,共有13171名美国员工进行了匿名投票。AMDCEO苏姿丰支持率为79%,排在第八。

  • NVIDIA下一代GPU架构巨变!首次上马多芯片 学习AMD/Intel

    NVIDIARTX40系列、AMDRX7000系列这一代显卡都已经布局完毕下一代还要等差不多两年,至少NVIDIABlackwell在路线图上看要到2025年才会推出明年来一波Super系列?2021年就第一个曝出Blackwell这个代号的曝料高手kopite7kimi给出的最新说法称,Blackwell不会明显增加GPC、TPC等计算单元的数量,CUDA核心数自然也不会大幅提升,但是会在基础架构上做出巨大的革新。GB20x系列游戏卡核心,应该还是单芯片,这倒是和AMDNavi31/32不一样。

  • Omdia:英伟达二季度出货900H100 AI GPU 相当于约30万块

    市场研究公司Omdia披露,2023年第二季度,英伟达出货了900吨H100AIGPU。Omdia认为,一个带有散热器的H100GPU的平均重量超过3公斤,因此英伟达在第二季度出货了30多万块H100。Omida的最新报告显示,该公司有望达到这一里程碑。

  • NVIDIA发布SteerLM:个性化定制大型语言模型响应的新AI方法

    在人工智能领域,开发人员和用户一直面临一个挑战,那就是需要更加定制和细致的大型语言模型响应。虽然这些模型,比如Llama2,可以生成类似人类的文本,但它们通常需要提供真正针对个体用户独特需求的答案。开发人员现在有机会访问代码,并使用HuggingFace等平台上提供的自定义的13BLlama2模型来尝试这一技术。

  • A轮获NVIDIA领投1亿美元融资,大模型先驱和斯坦福教授用AI颠覆制药业

    AI生物医药领域,DeepMind的AlphaFold是最出名的研究,它几乎完整解析了所有蛋白质结构。AlphaFold的AI系统基于Transformer架构Transformer论文主要的作者JakobUszkoreit也已投身AI医药领域。数据安全的逻辑下,很可能诞生一批中国本土的AI药物研发和AI医疗健康创业公司,十分值得期待。

  • 深度学习模型部署与优化:策略与实践;L40S与A100H100的对比分析

    ★深度学习、机器学习、生成式AI、深度神经网络、抽象学习、Seq2Seq、VAE、GAN、GPT、BERT、预训练语言模型、Transformer、ChatGPT、GenAI、多模态大模型、视觉大模型、TensorFlow、PyTorch、Batchnorm、Scale、Crop算子、L40S、A100、H100、A800、H800随着生成式AI应用的迅猛发展,我们正处在前所未有的大爆发时代。四、性价比较根据SuperMicro的数据,L40S在性价比上相较于A100具有优势,为希望部署高效且具有竞争力的生成式人工智能解决方案的用户提供更多选择。在模型分发和运行过程中,提供全面的账号认证和日志审计功能,全方位保障模型和数据的安全性。

  • NVIDIA RTX 5000 Ada工作站显卡现身国内电商:32GB显存 价格35999元

    NVIDIA在8月份发布的RTX5000/6000ADA工作站专业卡,如今终于在国内电商上架了。不过价格不美丽,售价来到了35999元。在加速渲染、AI、图形和计算工作负载性能方面,RTX5000Ada可以带来卓越的性能表现。

今日大家都在搜的词: