11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
曾经引领世界的NASA,近些年却经常不太顺利,很多大型航天项目不但预算严重超支进度严重滞后。NASA终于找到了罪魁祸首”:局里的超级计算机太落后了。
美国不断对中国科技行业“卡脖子”,对关键技术出口实施严格管控政策,竭尽全力减缓中国在尖端科技的崛起速度。一谈到“卡脖子”技术,我们总是会率先想到芯片、光刻机、传感器等大众耳熟能详的技术,但是在那些更少被人们关注到的领域里,同样存在许多左右大国竞争的不可忽视的关键技术。让我们对中国拥有属于自己的Anton超级计算机拭目以待。
欧盟计划通过提供超级计算机的处理能力,支持本土AI初创公司进行模型训练。该计划于去年9月宣布,并于上个月开始实施。Mistral在欧盟的超级计算访问计划中的早期参与可能表明思路的一致性。
谷歌在推出其张量处理单元CloudTPUv5p和具有突破性的超级计算机架构AIHypercomputer时掀起了轩然大波。这些创新的发布,再加上资源管理工具DynamicWorkloadScheduler,标志着在处理组织的人工智能任务方面迈出了重要的一步。这些创新有望重新定义人工智能计算的格局,并为各行各业的突破性进展铺平道路。
快科技11月22日消息,近日,最新全球超级计算机(HPC)TOP500榜单揭晓,联想以169套的成绩,第12次问鼎HPC TOP500榜单份额榜首。据了解,HPC TOP500榜单用于衡量全球高性能计算机的算力性能,于每年6月和11月发布。在本次发布的HPC TOP500榜单中,联想共计入围169套科学计算集群,以33.8%的占有率连续12次摘得榜单份额的榜首。不仅如此,联想的科学计算集群分布在全球19个国家和地区,并在其中11个市场占有率位居首位。联想共有58套在中国部署打造的科学计算集群入围本次HPC TOP500榜单。超级计算,又称高性能计算 ( HPC ) ,指利用并行工
在最新一轮MLPerf训练v3.1的结果中,尽管大部分成绩并不激动人心,但两个结果引人注目。NVIDIA使用MLPerf来展示其最新的霍珀一代超级计算机。NVIDIA试图展示它在图表上有一个更长的条形图,但在争取更长条形图的比赛中,它失去了规模效率,给了英特尔一个大胜利。
英国政府公布了其耗资2.25亿英镑的新型人工智能超级计算机的详细信息,其中英伟达和HPE的硬件将为该国最快的超级计算机提供动力。这台名为Isambard-AI的超级计算机首次于9月亮相,将设在布里斯托尔大学。作为双方协议的一部分,包括巴斯大学、卡迪夫大学和埃克塞特大学在内的当地学术机构也将获得Isambard-AI和Isambard3的访问权限。
英国政府周三宣布,将增加资金投入,用于支持两台旨在推动先进人工智能模型安全研究的超级计算机。英国政府在一个旨在为快速发展的技术寻找安全发展道路的人工智能安全峰会上宣布,将为「人工智能研究资源」增加资金,从之前宣布的1亿英镑增加到3亿英镑。布里斯托尔的「Isambard-AI」超级计算机将包含由惠普构建的5000个高级人工智能芯片,由英伟达提供剑桥的「Dawn」机器将通过与戴尔和英国中小企业StackHPC的合作交付,并由超过1000个英特尔芯片提供动力。
英国财政大臣RishiSunak计划将AI芯片和超级计算机的支出增加至4亿英镑,旨在提高英国的技术实力。英国政府正在四倍增加原计划的投资,以确保建立一个国家级的“AI研究资源”,这一资源将用于启动剑桥的新设施,并提升布里斯托尔的设备水平。”周日,《电讯报》披露,政府正在与ChatGPT的开发者OpenAI合作,开发一个AI聊天机器人,将用于获取公共服务。
Nvidia宣布其最先进的人工智能超级计算平台NvidiaDGX云,现已登陆OracleCloud市场,与Nvidia的AI企业软件套件一同提供。这一发布为客户提供了访问其最强大的图形处理单元以进行生成式人工智能和其他工作负载的途径。奥尔巴尼大学表示,他们正在利用Nvidia的平台在Oracle的云上构建自己的本地超级计算机,以加速将AI融入几乎所有学术和研究领域的使命,同时为学生在不断变化的就业市场中提供所需技能。
特斯拉的Gigafactory不断发展扩张该公司在德克萨斯州奥斯汀的工厂中出现的一个建筑结构近日引起了一些关注。有人称这个新建筑可能将用于容纳特斯拉的Dojo超级计算机集群的操作,以训练公司用于完全自动驾驶系统的人工智能神经网络。这个计算集群有望在明年初成为全球最强大的超级计算机之一。
欧盟委员会日前表示,计划通过允许人工智能初创公司使用欧盟拥有的高性能计算机资源来训练AI模型,从扩大超级计算机的使用范围。但想要获得使用权限的初创公司需要加入欧盟的人工智能治理计划,遵守相关准则。未来欧盟的AI治理仍需要广泛征求各界意见,特别是中小企业、消费者等其他利益相关方。
随着Cerebras、Inflection、亚马逊和其他公司推出新硬件,下一代人工智能超级计算机将可用于新的生成式人工智能模型。大型语言模型和其他类型的生成人工智能的使用正在迅速增长。在MLPerf基准测试中,CoreWeave和Nvidia最近在不到11分钟的时间内在约3,500个GPU上训练了一个具有1750亿个参数的GPT-3模型。
日本经济产业省将通过其附属实验室推出新型尖端超级计算机,以支持日本生成人工智能的发展。日本产业技术综合研究所最早将于2024年开发出一台计算能力约为现有机器2.5倍的超级计算机。在先进技术的支持下,日本有望释放生成式AI的潜力,推动创新,促进经济增长。
3nm工艺上,台积电、三星斗得相当厉害,互不相让,但是很显然,台积电依然更为看好。近日的季度财务会议上,台积电CEO魏哲家透露,去年底开始量产的N33nm工艺,已经完全通过验证,性能、良品率都达到了预期目标。第二代是N3E,EUV光刻层减少到19个,并去掉双重曝光,会便宜不少,适合主流产品,预计今年第四季度量产。
Cerberas和G42推出了4ExaflopsCondorGalaxy1AI超级计算机,其中包含数千个AMDEPYC处理器单元和数百万个AI核心。图片来自CerebrasCerebras和G42合作,将开创云计算和生成式人工智能领域的新局面。这些披露的雄心壮志是巨大的,这可能会开启云计算和生成式人工智能行业的新时代。
人工智能芯片初创公司CerebrasSystemsInc.与阿布扎比的科技公司Group42HoldingLtd.合作,打造了据称是世界上最大的AI训练超级计算机,为企业提供了一种替代英伟达公司制造的系统的选择。该公司今天宣布,其新系统CondorGalaxy1的第一阶段已经在加利福尼亚州圣克拉拉投入运行。这些规格将在未来几周内随着第二阶段的上线加倍。
特斯拉表示,已经开始生产其道场超级计算机,以训练其自动驾驶车队。在2023年第二季度的财报中,该公司概述了“解决大规模车辆自主性所需的四大技术支柱:极大的真实世界数据集、神经网络训练、车辆硬件和车辆软件。不过现在看来,可能要到2024年初才能实现。
马斯克最近在xAI会议上透露,特斯拉正在自主研发芯片,但不会将其称为GPU或使用类似100s、H100s等名称来描述它。特斯拉还在开发名为Dojo的超级计算机,目前主要用于人工智能机器学习和计算机视觉培训目的,但未来将向大模型方向发展。7月13日,马斯克宣布成立xAI,xAI的目标是理解宇宙的真实本质,xAI的团队成员曾在DeepMind、OpenAI、谷歌研究、微软研究、特斯拉和多伦多大�
劳伦斯利弗莫尔实验室近日宣布,他们已开始安装超级计算机ElCapitan的组件,该计算机将于明年完全投入使用。尽管正式投用还有几年的时间,但看到多年的工作终于成为现实,令人非常兴奋。ElCapitan将成为行业首个采用同时包含通用处理器和流处理器的混合处理器的超级计算机。
美国劳伦斯利弗莫尔实验室周三宣布,他们已经开始安装即将在明年完全投入使用的超级计算机ElCapitan的组件。该系统的一个关键组件将是AMD即将推出的InstinctMI300加速处理单元。这对英伟达构成了最强有力的挑战,英伟达目前在AI芯片市场上占据了超过80%的市场份额。
人工智能初创公司InflectionAI打造了一台先进的超级计算机,配备了22,000块英伟达H100GPU,这一数量惊人,带来了巨大的计算性能。InflectionAI的超级计算机预计将成为行业中规模最大的之一,仅次于AMD的Frontier。通过这台超级计算机,AI模型「Inflection1」有望在编码任务方面显著改进,因为该公司在这方面落后。
特斯拉表示,备受期待的Dojo超级计算机将于下个月开始投产,这将使其自动驾驶技术达到一个新的水平。Dojo是特斯拉自主开发的定制超级计算机平台,专为AI机器学习和视频训练构建,利用来自其车队的视频数据进行训练。否则特斯拉可能需要多年时间才能实现真正的自主驾驶马斯克似乎坚信今年会实现这一目标。
特斯拉最近上线了一个新的推特账号Tesla_AI”,并发布了几条推文,介绍了特斯拉在人工智能方面的进展。一些推文称,特斯拉正在打造自主机器人的基础模型。有人批评称,他这么做是希望自己有时间追赶上其他公司的步伐。
思科于周二推出了用于人工智能超级计算机的网络芯片,这将与博通和Marvell的产品竞争。五家六家主要云服务提供商正在测试其SiliconOne系列新芯片,但没有透露具体的公司名称。今年4月,博通宣布推出Jericho3-AI芯片,可以将多达32,000个GPU芯片连接在一起。
英伟达推出了NVIDIADGXGH200人工智能超级计算机,这款计算机由NVIDIAGH200GraceHopper超级芯片和NVIDIANVLinkSwitchSystem提供支持。DGXGH200集成了256颗GH200GraceHopper超级芯片,拥有144TB共享内存,几乎是2020年推出的上一代NVIDIADGXA100内存容量的500倍,可以为大型生成式人工智能模型以及其他应用提供高达1exaflop的计算能力。谷歌云、Meta和微软是首批有望获得DGXGH200访问权的公司。
谷歌公布了其用于训练其人工智能模型的超级计算机的新细节,称该系统比+Nvidia+的同类系统更快、更节能。谷歌自主设计了一种名为Tensor+Processing+Unit的芯片,该公司90%+以上的人工智能训练工作都使用这些芯片,最新的TPU已经升级到第四代。谷歌最大的公开披露的语言模型PaLM,就是通过在两个4,000芯片超级计算机上进行了50天的训练。
英国政府将投资9亿英镑用于建设尖端超级计算机,这是该国人工智能战略的一部分,其中包括确保能够建立自己的“BritGPT”。根据财政部概述,该国计划花费约9亿英镑建造一台比英国最大的计算机强大数倍的超级计算机,并建立一个新的人工智能研究机构。政府还将在未来十年内投资25亿英镑用于量子技术,这基于量子物理学——研究构成宇宙的亚原子粒子是如何工作的——
由OpenAI训练的人工智能聊天机器人ChatGPT,自去年11月30日推出至今已收获大量的用户,在1月份就已突破1亿大关,随着关注的增加和支持设备的增多,用户还在持续增加。在ChatGPT上大获成功的OpenAI,并未停下他们在大型语言模型上持续探索的脚步,他们在当地时间周二已经推出了新一代的自然语言处理模型GPT-4。对于与微软的合作,OpenAI总裁、联合创始人GregBrockman也表示,与微软Azure联合设计的超级计算机,对于他们扩大人工智能训练需求至关重要,使他们在ChatGPT等系统上的研究成为可能。
微软斥资数亿美元建造了一台大型超级计算机,以帮助为+OpenAI+的+ChatGPT+聊天机器人提供动力。在周一发布的两篇博客文章中,微软解释了它如何创建OpenAI+使用的+Azure+强大的人工智能基础设施,以及它的系统如何变得更加强大。”+++“我们与他们密切合作,了解他们在构建培训环境时寻找的关键东西是什么,以及他们需要的关键东西是什么。