11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
【新智元导读】PlaygroundResearch推出了新一代文本到图像模型PGv3,具备240亿参数量,采用深度融合的大型语言模型,实现了在图形设计和遵循文本提示指令上甚至超越了人类设计师,同时支持精确的RGB颜色控制和多语言识别。自去年以来,文本到图像生成模型取得了巨大进展,模型的架构从传统的基于UNet逐渐转变为基于Transformer的模型。多语言能力得益于语言模型天生能够理解�
高通即将推出骁龙7sGen3芯片,根据最新泄露的幻灯片,这款芯片在性能、能效以及AI层面将有显著提升。骁龙7sGen3的CPU性能将比上一代快20%,GPU性能提升40%,NPU性能提升30%,同时在能效上也有12%的提升。骁龙7sGen3还将支持蓝牙5.4和空间音频等新特性。
Meta发布了Llama3.1系列模型,其中包括Meta迄今为止最大的405B模型,以及两个较小的模型,参数量分别为700亿和80亿。Llama3.1被认为是引领了开源新时代。要在NVIDIANeMo中使用Llama-3.1的SDG微调,可参阅GitHub上的/sdg-law-title-generation部分。
马斯克19天建成由10万块H100串联的世界最大超算,已全力投入Grok3的训练中。外媒爆料称,OpenAI和微软联手打造的下一个超算集群,将由10万块GB200组成。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、震惊AI界!14、微软研究院推AI框架E5-V:用文本对的单模态训练简化多模态学习降低成本微软研究院与北京航空航天大学联合推出的E5-V框架通过单模态训练简化多模态学习,降低成本,在多个任务中展现出优异性能,代表了多模态学习的重大进步。
Llama3.1终于现身了,不过出处却不是Meta官方。Reddit上新版Llama大模型泄露的消息遭到了疯传,除了基础模型包括8B、70B和最大参数的405B的基准测试结果。在部署Llama3.1模型的任何应用之前,开发人员应针对模型的具体应用进行安全测试和微调。
博主数码闲聊站爆料,iQOO13将会采用一块2K纯直屏,搭载高通过骁龙8Gen4平台,并配备3X潜望长焦、单点超声波屏下指纹将支持IP68防尘防水,内置超大尺寸X轴线性马达。从配置来看,iQOO13将会是最强悍的骁龙8Gen4直屏手机,屏幕、性能、潜望全都安排上了。iQOO13将是首批骁龙8Gen4终端之一,新品会在今年Q4登场。
【新智元导读】马斯克最近哭穷表示,xAI需要部署10万个H100才能训出Grok3,影响全球的大模型算力荒怎么解?昨天开源的这款MoE大模型,只用了1/19算力、1/19激活参数,性能就直接全面对标Llama3-70B!如今,想训个SOTA的大模型,不仅缺数据和算力,甚至连电都不够用了。最近马斯克就公开表示,因为苦于买不到足够的芯片,xAI只能推迟Gork2的训练和发布。在算力愈发紧俏的当下,浪�
阿布扎比先进技术研究委员会下属的技术创新研究所发布了新一代的Falcon2模型。这一开源的大语言模型以其110亿参数和5.5万亿token的规模,性能超越了Llama3。Falcon2的本次升级,为其商化进程提供了有力支撑TII也透露正在酝酿Falcon2下一代模型,这些模型的性能将得到进一步增强,为人工智能领域带来更多的创新和发展。
阿里巴巴宣布开源其最新的Qwen1.5系列语言模型-Qwen1.5-110B。这是Qwen1.5系列中规模最大的模型,也是该系列中首个拥有超过1000亿参数的模型。它在与最近发布的SOTA模型Llama-3-70B的性能上表现出色,并且明显优于72B模型。