11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、巨量引擎旗下AIGC工具“即创”正式版上线巨量引擎的AIGC工具“即创”正式上线,提供多种内容生成方式,包括AI脚本生成、智能成片和数字人等。用户反馈新版本在图像质量和细节处理上显著下降,导致微软搜索部门负责人JordiRibas承认并采取措施恢复旧版。
微软研究院开源了目前最强小参数模型——phi-4。去年12月12日,微软首次展示了phi-4,参数只有140亿性能却极强,在GPQA研究生水平、MATH数学基准测试中,超过了OpenAI的GPT-4o,也超过了同类顶级开源模型Qwen2.5-14B和Llama-3.3-70B。在与其他类似规模和更大规模的模型比较中,phi-4在12个基准测试中的9个上优于同类开源模型Qwen-2.5-14B-Instruct。
微软AzureAI团队宣布开源视觉模型——Florence-2。Florence-2是一个多功能视觉模型,可提供图像描述、目标检测、视觉定位、图像分割等。尤其是在微调后,Florence-2在公共基准测试中的性能与更大参数的专业模型相媲美。
7月3日,微软在官网开源了基于图的RAG——GraphRAG。为了增强大模型的搜索、问答、摘要、推理等能力,RAG已经成为GPT-4、Qwen-2、文心一言、讯飞星火、Gemini等国内外知名大模型标配功能。同时GraphRAG对tokens的需求很低,也就是说可以帮助开发者节省大量成本。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。
LoRA的高效能力已在文生图领域获得广泛应用,可以准确渲染、融合图像中的特定元素,例如,不同字符、特殊服装或样式背景等,同时可对图像进行压缩、去噪、补全进行优化操作。但想在模型中应用多个LoRA构建更复杂的图像时,会出现图像失真、难以控制细节的难题。尤其是使用数量较多的LoRA组合时,生成高质量的效果更加明显。
近日,微软正式开源缓存存储系统Garnet,能更大限度发挥硬件功能,帮助开发人员更快地运行应用程序。微软研究院数据库小组高级首席研究员BadrishChandramouli介绍,Garnet项目是基于C#.NET8.0从零开始构建成,且以性能为核心考量。从基准性能图表来看,GET命令的吞吐量超过了Dragonfly十倍以上,第99百分位上的延迟却比Dragonfly更低,同时Garnet和Dragonfly在吞吐量和延迟上的表现均远远优于Redis。
微软和苏黎世联邦理工学院的研究人员联合开源了SliceGPT,该技术可以极限压缩大模型的权重矩阵,将模型体量压缩25%左右,同时保持性能不变。实验数据显示,在保持零样本任务性能的情况下,SliceGPT成功应用于多个大型模型,如LLAMA-270B、OPT66B和Phi-2。这一技术的推出,有望为广大开发者和企业提供更加便捷、高效的大模型应用解决方案。
微软开源了多模态模型LLaVA-1.5,继承LLaVA架构并引入新特性。研究人员对其在视觉问答、自然语言处理、图像生成等进行了测试显示,LLaVA-1.5达到了开源模型中的最高水平,可媲美GPT-4V效果。LLaVA-1.5在多模态领域取得显著进展,通过开源促进了其在视觉问答、自然语言处理、图像生成等方面的广泛应用。