11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
2024年3月19日,英伟达CEO黄仁勋在美国加州圣何塞SAP中心发表主题演讲《见证AI的变革时刻》,正式拉开了2024年英伟达GTC大会的序幕。宇树通用人形机器人H1在大会亮相,与英伟达一起推动全球AI机器人的深度进化。世界各地的AI和机器人技术领导者正在汇集各种前沿技术和资源,致力于在通用机器人领域实现技术突破。
在AI持续火爆的当下,英伟达GTC2024的官宣无疑成为AI领域的重头戏,果不其然在北京时间3月19日凌晨4时,NVIDIA创始人兼CEO黄仁勋登台发表GTC2024的主题演讲《见证AI的变革时刻》,AI教父黄仁勋在会上宣布推出新一代GPUBlackwell,名为GB200将于今年晚些时候上市。同时他现场展示Grace-Blackwell系统,并表示该系统可以支持多达10万亿参数的模型进行AI训练和实时LLM推理,成本和能耗将大幅降低。熙流数字团队将致力于汽车流体应用场景的全覆盖,助力汽车行业在气动力设计、气动声学分析、水管理、热管理、工业数字孪生等方面的构建自己的新质生产力。
英伟达在GTC2024大会上最新推出了新一代GPUBlackwell平台,首款芯片命名为GB200,今年上市。GB200包含了两个B200BlackwellGPU和一个基于Arm的GraceCPU。在人工智能方面,GB200的AI性能为每秒20千万亿次浮点运算H100为每秒4千万亿次浮点运算。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/📰🤖📢AI新鲜事英伟达发布最强AI加速卡GB200!单机可训15个GPT-4模型英伟达推出通用机器人模型:ProjectGR00TSD3-Turbo:基于LADD的快速文本到图像生成模型支持百亿参数大模型、卢伟冰现�
在英伟达GTC2024大会上,英伟达CEO黄仁勋在GTC宣布推出新一代GPUBlackwell。第一款Blackwell芯片名为GB200,将于今年晚些时候上市。GB200包含了两个B200BlackwellGPU和一个基于Arm的GraceCPU组成,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。
英伟达公布了截至2024年1月28日的2024财年第四季度财报,显示公司营收达到了221亿美元,同比增长了惊人的265%,环比增长22%。这一表现超过了分析师预期的204.1亿美元。未来一年将迎来重大的新产品周期,带来杰出的创新,推动行业向前发展。
OpenAI年收入破16亿美元,美股更是一片大好,以科技股为主的纳斯达克指数年底暴涨涨了43%。2023年即将落幕,2024年AI行业又将迎来来怎样的巨变?2023年对于科技行业来说,无疑是疯狂的一年。用2023年大事件一览图收尾。
快科技1月1日消息,据媒体报道,今年美国芯片股全年涨幅高达65%,创14年来最大涨幅,其中英伟达和AMD等人工智能芯片制造商功不可没。报道表示,费城半导体指数全年涨幅达65%,创下2009年以来的最大年度涨幅。其中英伟达无疑是最受人关注的,其股价涨幅超过200%,成为首家市值突破万亿美元的芯片制造商。AMD今年的股价也上涨了近130%,由于英伟达和AMD的强势上涨,带动了整体股价的大幅上涨。而且在费城半导体指数的30只成分股中,仅有沃尔夫斯比德公司一家出现下跌,其股价全年下跌37%,主要原因是新工厂的问题不断。值得注意的是,芯片设
OpenAI的首席执行官SamAltman承认,他对ChatGPT的流行感到惊讶,该聊天机器人在一年多前作为一个研究项目发布。OpenAI团队曾经花费了整个会议讨论是否值得将这个聊天机器人开放给公众。尽管Nvidia从所有炒作中受益匪浅,但未来的挑战在于企业能否展示他们对先进GPU和模型的大量投资能够带来产品的开发,使更多公司能够分享财富。
英伟达官方盘点2023年10大研究,从CV到AI,从智能体到生成式AI。英伟达不但现实世界中用GPU收割全世界,也在虚拟世界中用一项项匪夷所思的技术展开了一场革命。在这个框架中,研究人员训练了一组专家降噪器,专门用于在生成过程的不同间隔中进行降噪,从提高合成能力。
国外媒体最新报道显示,微软计划在2024年通过采购大量英伟达最新款AI加速芯片B100,来最大化提升其AI计算性能。此前微软已订购了15万颗英伟达H100芯片,但考虑到B100的计算力预计可达H100的两倍以上,微软决定将部分H100订单转移至新款B100芯片。微软抢购B100可以看作是这一竞争的最新回应。
在今日“让AI无处不在”的活动上,英特尔CEO帕特・基辛格还首次向公众揭示了英特尔Gaudi3系列AI加速器,这是一款专为深度学习和大规模生成人工智能模型设计的工具,计划明年推出。新一代的Gaudi3AI加速器凭借出色的性能优势和极具竞争力的总体拥有成本及定价,有望在2024年占据更大的市场份额。它还将配备最高达128GB的HBM3e内存,这将大幅提升AI的学习和训练性能,直接与英伟达的H200加速卡竞争。
硅谷的全球顶尖芯片制造商Nvidia在2023年成为人工智能领域最活跃的投资者之一,大幅扩大了对AI初创企业的投资。Nvidia今年已投资「二十多家」公司,范围从数十亿美元的大型新人工智能平台到小型初创企业。「我们不帮助任何人插队,」他说。
“欧洲版OpenAI”最新估值,逼近20亿美元!总部位于巴黎的大模型初创公司MistralAI最新一轮融资,4.87亿美元。投资方为安德森·霍洛维茨、英伟达、Salesforce等。这轮巨大融资也再次印证,投资者正在争相寻找“下一个OpenAI”,诸多大型投资方都愿意在创企早期以高价购入股份,这也是创业公司在早期估值飙升的原因之一。
彭博社最新报道显示,MistralAI正在筹集近5亿美元资金,最终阶段的投资中包括来自英伟达公司和Salesforce公司等重要投资者。这轮融资将MistralAI的估值推至约20亿美元,使其成为OpenAI的强大竞争对手。这一举措在全球范围内引起了广泛关注,突显了人工智能领域的活力和潜力。
站长之家12月3日消息:开源云AI初创公司Together在日益增长的人工智能投资潮中成为最新一家获得巨额融资的开发商,该公司日前宣布,它已在A轮投资中筹集了1.025亿美元,包括来自技术巨头NVIDIA的投资。Together的一位发言人表示:「我认为激发投资者兴趣的一个方面是我们对研究的重视。该团队由来自苹果、苏黎世联邦理工学院的资深人士以及来自斯坦福大学、加利福尼亚大学伯克利分校和麻省理工学院的学者组成。
Nvidia首席执行官黄仁勋在纽约时报DealBook大会上表示,美国建立自主芯片供应链可能需要20年的时间。作为半导体行业的巨头,黄仁勋指出,Nvidia公司的成功取决于来自世界各地的多种元件并非仅仅依赖于中国台湾,即使台积电在该地制造了全球最先进的半导体技术。为填补新政策出台之前的空白,商会建议美国考虑依靠“与制定半导体供应链进步的盟国之间的强有力的国际合作”,如日本、韩国、欧盟和英国。
快科技11月30日消息,据国内媒体报道称,英伟达没有停产RTX 3060的打算,而且是要继续生产。按照消息人士的说法,RTX 3060不停产主要是为了对抗AMD RX 6750 GRE系列,也就是英伟达要加大自己在2000元话语权。不过有趣的一幕是,2021年推出的RTX 3060不停产的话,也同样面对自家RTX 4060,后者价格是在2399元,两者差距就是100多元左右。所以问题就来了,RTX 3060和RTX 4060两个产品,你会买谁呢?按照之前英伟达官方的说法,RTX 4060在开启 RTX 40系列显卡独有的帧生成技术后,性能是RTX 3060的1.7倍,关闭帧生成技术后性能是RTX 3060的1.
据TrendForce集邦咨询最新HBM市场研究显示,为了更妥善且健全的供应链管理,英伟达也规划加入更多的HBM供应商。三星的HBM3预期于今年12月在NVIDIA完成验证。在HBM4中,将首次看到最底层的Logicdie将首次采用采用12nm制程晶圆,该部分将由晶圆代工厂提供,使得单颗HBM产品需要晶圆代工厂与存储器厂合作。
英伟达正式宣布推出其AIFoundry服务计划,这是一套包括英伟达AI基础模型、英伟达NeMo框架和工具,以及DGX云AI超级计算和服务的全方位解决方案,为企业打造和优化定制的生成式AI模型。英伟达AIFoundry服务将使通信和媒体提供商的领先软件和服务供应商Amdocs能够优化企业级大型语言模型,从在其业务范围内高效部署生成式AI用例,涵盖从客户体验到网络运营和配置。这些增强GPU�
英伟达公司当地时间周一宣布,推出其AI工作的新一代顶级芯片——HGXH200。该新GPU在其广受欢迎的前代产品H100的基础上,实现了1.4倍的内存带宽提升和1.8倍的内存容量增加,大幅提高了其处理密集型生成AI工作的能力。但随着生成式AI的需求如今仍与年初一样旺盛,需求可能只会更大——这还不包括英伟达推出的更热门新芯片。
英伟达Nvidia推出了H200,这是一款专为训练和部署生成式人工智能模型的图形处理单元。它基于NVIDIAHopper架构,具有先进的内存和处理能力,可处理海量的数据用于生成式AI和高性能计算工作负载。对于高性能计算应用,内存带宽对于提高数据传输速度、减少处理瓶颈至关重要。
据外媒体报道称,英伟达今天发布了新一代芯片H200,其整体性能相比上一代有着大幅提升。官方公布的细节显示,新的H200芯片是当前用于训练最先进大语言模型H100芯片的升级产品,集成了141GB的内存,且是HBM3e内存的芯片。在这样的大环境下,英伟达智能提供给中国厂商性能下降80%的阉割版芯片。
★多模态大模型;GPU算力;LLMS;LLM;LMM;GPT-4V;GH200;图像识别;目标定位;图像描述;视觉问答;视觉对话;英伟达;Nvidia;H100;L40s;A100;H100;A800;H800,AI算力,AI算法随着人工智能技术的不断发展,多模态大模型成为越来越重要的发展趋势。多模态大模型通过融合视觉等多种感知能力来扩展语言模型,实现更强大的通用人工智能。在模型分发和运行过程中,提供全面的账�
英伟达正在提升RTX20系列GPU用户的游戏体验,一款新的GPU驱动程序现在允许这些较旧的RTXGPU使用RTXVideoSuperResolution技术来提高旧视频的清晰度。在最新的博客文章中,英伟达确认RTXVideoSuperResolution现在支持RTX20系列显卡,包括RTX2080Ti和RTX20Super系列。在这一宣布之前,英伟达在FAQ页面中解释说,RTXVideoSuperResolution在发布时不支持RTX20系列显卡,因为「RTXVideoSuperResolution的许多算法需要为这些20系列GPU进行重构」。
由于人工智能需求的大幅增加,英伟达计划将其下一代BlackwellB100GPU的发布日期从2024年第四季度提前到2024年第二季度。该公司预计将使用SK海力士的HBM3eDRAM来驱动其最新的芯片。这表明英伟达正在加快其AIGPU的步伐,希望在未来几年继续保持领先地位。
根据知名分析师郭明錤分享的最新洞察,到2024年和2025年,AMD的AI芯片出货量将会大幅增长。郭明錤的研究表明,到2024年,AMD的AI芯片出货量预计将占到英伟达出货量的约10%。如果微软与AMD的合作进展顺利,AMD获得Meta和谷歌的订单,预计2025年AMD的AI芯片出货量将大幅达到英伟达的30%或更多。
9月12日,淘天集团联合爱橙科技正式对外开源大模型训练框架Megatron-LLaMA,以提高大语言模型训练性能,降低训练成本。蚂蚁集团发布“蚁天鉴”大模型安全一体化解决方案蚂蚁集团在2023国家网络安全宣传周上发布了名为“蚁天鉴”的大模型安全一体化解决方案,包括“蚁鉴2.0”大模型安全检测平台和“天鉴”大模型风险防御平台,可以从多角度保障大模型的安全性。sdxl-emoji:
MLPerf作为业界公认的AI系统性能基准测试,最近发布了3.1版本。英伟达最新发布的GH200GraceHopper超级芯片首次在公开基准中亮相。未来的软件优化将进一步释放这些模块中的英伟达OrinSoC的强大潜力。
据全球最大资管之一贝莱德公布的13F文件显示,二季度贝莱德再度增持苹果,数量为463万股,为其Q2最大增持个股,持仓总市值来到2016亿美元。亚马逊、Meta、特斯拉也分列增持榜前几位。贝莱德是芯片巨头英伟达的第二大股东,持股比例超过7%。