11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
AI日报栏目聚焦人工智能领域最新动态:1)xAI发布旗舰模型Grok4,在数学推理和代码生成表现突出,同时推出开发者专用Grok4Code;2)微软开源Phi-4-mini模型,推理效率提升10倍,适合边缘设备;3)上海82款大模型完成备案,垂直领域应用取得突破;4)Hugging Face推出开源桌面机器人Reachy Mini,支持Python编程;5)Perplexity发布AI浏览器Comet挑战Chrome;6)OpenAI将首次发布开放权重模型,打破闭源惯例;7)谷歌医疗AI模型MedGemma系列上新,单个GPU即可运行;8)OpenAI以约65亿美元收购AI硬件公司io Products,正式进军硬件市场。
微软在官网开源了,最新动态蛋白质生成模型BioEmu-1。BioEmu-1能在单个GPU上每小时生成数千种蛋白质结构,生成效率比传统MD模拟提高了几个数量级。在预测人类血管紧张素转换酶2的构象柔性方面,BioEmu-1成功揭示了ACE2在不同构象下的动态特性,证明了其在解析生物大分子相互作用及预测蛋白质功能方面的巨大潜力。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、巨量引擎旗下AIGC工具“即创”正式版上线巨量引擎的AIGC工具“即创”正式上线,提供多种内容生成方式,包括AI脚本生成、智能成片和数字人等。用户反馈新版本在图像质量和细节处理上显著下降,导致微软搜索部门负责人JordiRibas承认并采取措施恢复旧版。
微软研究院开源了目前最强小参数模型——phi-4。去年12月12日,微软首次展示了phi-4,参数只有140亿性能却极强,在GPQA研究生水平、MATH数学基准测试中,超过了OpenAI的GPT-4o,也超过了同类顶级开源模型Qwen2.5-14B和Llama-3.3-70B。在与其他类似规模和更大规模的模型比较中,phi-4在12个基准测试中的9个上优于同类开源模型Qwen-2.5-14B-Instruct。
微软AzureAI团队宣布开源视觉模型——Florence-2。Florence-2是一个多功能视觉模型,可提供图像描述、目标检测、视觉定位、图像分割等。尤其是在微调后,Florence-2在公共基准测试中的性能与更大参数的专业模型相媲美。
7月3日,微软在官网开源了基于图的RAG——GraphRAG。为了增强大模型的搜索、问答、摘要、推理等能力,RAG已经成为GPT-4、Qwen-2、文心一言、讯飞星火、Gemini等国内外知名大模型标配功能。同时GraphRAG对tokens的需求很低,也就是说可以帮助开发者节省大量成本。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。
近日,微软正式开源缓存存储系统Garnet,能更大限度发挥硬件功能,帮助开发人员更快地运行应用程序。微软研究院数据库小组高级首席研究员BadrishChandramouli介绍,Garnet项目是基于C#.NET8.0从零开始构建成,且以性能为核心考量。从基准性能图表来看,GET命令的吞吐量超过了Dragonfly十倍以上,第99百分位上的延迟却比Dragonfly更低,同时Garnet和Dragonfly在吞吐量和延迟上的表现均远远优于Redis。
微软和苏黎世联邦理工学院的研究人员联合开源了SliceGPT,该技术可以极限压缩大模型的权重矩阵,将模型体量压缩25%左右,同时保持性能不变。实验数据显示,在保持零样本任务性能的情况下,SliceGPT成功应用于多个大型模型,如LLAMA-270B、OPT66B和Phi-2。这一技术的推出,有望为广大开发者和企业提供更加便捷、高效的大模型应用解决方案。