11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
带着最强AI芯片GB300闪亮登场“AI超级碗”GTC,燃爆全场!性能方面,和去年发布的GB200相比,推理性能是其1.5倍。目前Nano和Super模型可在NIM微服务中获取,Ultra模型即将推出。所以大家这次都在观望,老黄是否又会“语出惊人”,相关探讨是否会对量子计算产业产生更大影响。
分析师郭明錤的最新报告指出,NVIDIAGB200芯片订单量迎来爆炸性增长,其中微软第四季度订单量激增3到4倍,超过所有其他云服务商的总和。NVIDIABlackwell芯片的产能扩张预计将于2024年第四季度初启动,预计第四季度出货量在15万到20万块之间2025年第一季度出货量将增长200%到250%,达到50万到55万块。其他云服务提供商订单量则显著低于微软,如亚马逊在2024年第四季度有300400机柜GB2
甲骨文宣布推出多款GPU计算集群,可通过甲骨文云基础设施提供AI训练服务,其中最顶级的一款配备了超过10万块的NVIDIABlackwellGPU。它一共使用了多达131072万块B200GPU加速卡,FP8浮点、INT8整数峰值性能高达2.4ZFlops,也就是24万亿亿次每秒。WideLabs、Zoom等企业已经开始采用甲骨文的新集群服务。
马斯克在出席All-InSummit2024活动时表示,特斯拉的下代AI芯片Dojo2将于2025年末批量装备。马斯克强调,特斯拉的AI生态系统构筑精妙,其中Dojo扮演着模型训练的核心角色部署于车辆中的专用芯片则专注于模型推理,两者相辅相成,共同驱动着特斯拉自动驾驶技术的持续进化。超越汽车制造商的单一身份,马斯克为特斯拉设定了更为宏大的愿景:成为一家引领人工智能浪潮的先锋企业,通过深度模仿人类感知机制,彻底解锁自动驾驶技术的终极密码。
据集邦咨询最新报告,NVIDIA将在今年下半年供货Blackwell架构的新一代B100、B200GPU,供应CSP云客户,同时增加一款精简版的B200A,面向有边缘AI需求的OEM企业客户。临时增加B200A的主要原因是B200所用的台积电CoWoS-L封装产能持续吃紧,需要集中满足CSP客户需求,B200A则会改用相对简单和宽松的CoWoS-S封装技术。集邦咨询预计,NVIDIA高端GPU明年的出货量将增长55%。
英伟达在GTC2024大会上最新推出了新一代GPUBlackwell平台,首款芯片命名为GB200,今年上市。GB200包含了两个B200BlackwellGPU和一个基于Arm的GraceCPU。在人工智能方面,GB200的AI性能为每秒20千万亿次浮点运算H100为每秒4千万亿次浮点运算。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事英伟达发布最强AI加速卡GB200!单机可训15个GPT-4模型英伟达推出通用机器人模型:ProjectGR00TSD3-Turbo:基于LADD的快速文本到图像生成模型支持百亿参数大模型、卢伟冰现�
【新智元导读】就在刚刚,老黄又来打破摩尔定律了:英伟达新核弹B200,一块能顶5个H100,30倍推理加速,能训万亿参数大模型!同时推出的AI推理微服务NIM,号称让全世界用上AI。就在刚刚结束的GTC人工智能大会上,英伟达的新一代性能巨兽Backwell诞生了!BlackwellB200GPU,是如今世界上最强大的AI芯片,旨在「普惠万亿参数的AI」。有了世界最强的处理器Blackwell,新一轮技术革命即将开启。
在英伟达GTC2024大会上,英伟达CEO黄仁勋在GTC宣布推出新一代GPUBlackwell。第一款Blackwell芯片名为GB200,将于今年晚些时候上市。GB200包含了两个B200BlackwellGPU和一个基于Arm的GraceCPU组成,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。
根据各方信息和路线图,NVIDIA预计会在今年第二季度发布Blackwell架构的新一代GPU加速器B100”,官方称可轻松搞定1730亿参数大语言模型,是现在H200的两倍甚至更多。B100之后有更强大的升级版B200,一如现在H100、H200的关系。NVIDIAGTC2024图形技术大会将于3月18-21日举行,必然会披露新一代GPU加速器的情况,甚至有可能正式宣布。