11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
高通正式推出骁龙7系列新成员——第四代骁龙7(骁龙7Gen4),旨在为高端手机用户提供准旗舰级的性能、连接性与娱乐体验。 全新的第四代骁龙7在多媒体体验上表现出色,多个IP模块协同工作,配合台积电4nm工艺,整体能效优异。CPU部分首次采用1+4+3的全新架构组合,包含一个2.8GHz的超级核心A720、四个2.4GHz的性能核心A720以及三个1.8GHz的能效核心A520,还搭配了更大的三级缓存
随着ChatGPT、Copliot等生成式AI产品的快速迭代,对训练数据的需求呈指数级增长,同时也是提升大模型性能的关键环节之一。为了解决训练数据短缺和质量差的难题,微软研究院发布了一个专门用于生成高质量合成数据的的AIAgent——AgentInstruct。Orca-3在多项指标上也超越了LLAMA-8B-instruct和GPT-3.5-turbo等其他模型。
只需激活60%的参数,就能实现与全激活稠密模型相当的性能。微软亚洲研究院的一项新研究,实现了模型的完全稀疏激活,让推理成本大幅下降。在极大规模下,稀疏激活模型有可能达到与密集模型相当的性能,为设计和训练大规模稀疏激活模型提供了一个有用的参考。
其开发者平台API现已支持最新版本的StableDiffusion3及其增强版本StableDiffusion3Turbo。这一发布标志着StabilityAI在文字到图像生成领域的技术进步,其性能已经达到甚至超越了行业内的一些领先模型,如DALL-E3和Midjourneyv6。公司承诺提供99.9%的服务可用性,这对于企业用户来说尤为重要,因为他们在使用开发者平台进行关键的生成型AI工作时,需要确保服务的稳定性和可靠性。
在最近的一篇论文中,苹果的研究团队宣称,他们提出了一个可以在设备端运行的模型ReALM,这个模型在某些方面可以超过GPT-4。ReALM的参数量分别为80M、250M、1B和3B,体积都非常小,适合在手机、平板电脑等设备端运行。这项研究有望用来改进苹果设备上的Siri助手,帮助Siri更好地理解和处理用户询问中的上下文。
在最新的研究论文中,谷歌研究人员引入了一种名为Cappy的预训练评分器模型,旨在增强和超越大型多任务语言模型的性能。这项研究旨在解决大型语言模型所面临的挑战,其中包括高昂的计算资源成本和效率低下的训练和推理过程。通过引入轻量级预训练评分器Cappy,这项研究解决了在多任务场景中有效利用大型语言模型的挑战,展示了其在各种任务上的参数效率和性能的优越性,同时强调了在实际应用中简化大型语言模型采用的潜力。
英伟达在GTC开发者大会上发布了最强AI加速卡BlackwellGB200,计划今年晚些时候发货。GB200采用新一代AI图形处理器架构Blackwell,其AI性能可达20petaflops,比之前的H100提升了5倍。英伟达的系统还可扩展至数万GB200超级芯片,具有11.5exaflops的FP4计算能力。
2月13日,著名大模型开源平台StabilityAI在官网,开源了全新文本生成图像模型——StableCascade。SC是根据最新Würstchen基础模型开发成,大幅度降低了对推理、训练的算力需求,例如,训练Würstchen模型使用了约25,000小时性能却更强劲StableDiffusion2.1大约使用了200,000小时。在训练Würstchen基础模型时,参数总量比SDXL多14亿,但训练成本仅是其8分之一。
阿里云公布了多模态大模型的最新研究成果,继Plus版本之后,再次推出Max版本。Qwen-VL-Max模型在视觉推理方面展现出卓越的能力,可以理解并分析复杂的图片信息,包括识人、答题、创作和写代码等任务。用户可以在通义千问官网、通义千问APP直接体验Max版本模型的能力,也可以通过阿里云灵积平台调用模型API。
对模型参数量的迷信、执念也许可以放下了,混合多个小模型也是未来构造对话型AI的一个光明的方向。在对话型人工智能研究中,存在趋势即朝着开发参数更多的模型方向发展,如ChatGPT等为代表的模型。混合模型通过协作多个较小的对话型人工智能,在提供比单个更大的对话型人工智能更高质量的对话方面是有效的。