11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
微软在官网开源了,最新动态蛋白质生成模型BioEmu-1。BioEmu-1能在单个GPU上每小时生成数千种蛋白质结构,生成效率比传统MD模拟提高了几个数量级。在预测人类血管紧张素转换酶2的构象柔性方面,BioEmu-1成功揭示了ACE2在不同构象下的动态特性,证明了其在解析生物大分子相互作用及预测蛋白质功能方面的巨大潜力。
微软在官网发布了视觉Agent解析框架OmniParser最新版本V2.0,可将DeepSeek-R1、GPT-4o、Qwen-2.5VL等模型,变成可在计算机使用的AIAgent。与V1版本相比,V2在检测较小的可交互UI元素时准确率更高、推理速度更快,延迟降低了60%。当任务是“点击设置按钮”时,OmniParser不仅提供了设置按钮的边界框和ID提供了其功能描述,颗显著提高了模型的准确性和鲁棒性。
欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、巨量引擎旗下AIGC工具“即创”正式版上线巨量引擎的AIGC工具“即创”正式上线,提供多种内容生成方式,包括AI脚本生成、智能成片和数字人等。用户反馈新版本在图像质量和细节处理上显著下降,导致微软搜索部门负责人JordiRibas承认并采取措施恢复旧版。
微软研究院开源了目前最强小参数模型——phi-4。去年12月12日,微软首次展示了phi-4,参数只有140亿性能却极强,在GPQA研究生水平、MATH数学基准测试中,超过了OpenAI的GPT-4o,也超过了同类顶级开源模型Qwen2.5-14B和Llama-3.3-70B。在与其他类似规模和更大规模的模型比较中,phi-4在12个基准测试中的9个上优于同类开源模型Qwen-2.5-14B-Instruct。
微软AzureAI团队宣布开源视觉模型——Florence-2。Florence-2是一个多功能视觉模型,可提供图像描述、目标检测、视觉定位、图像分割等。尤其是在微调后,Florence-2在公共基准测试中的性能与更大参数的专业模型相媲美。
7月3日,微软在官网开源了基于图的RAG——GraphRAG。为了增强大模型的搜索、问答、摘要、推理等能力,RAG已经成为GPT-4、Qwen-2、文心一言、讯飞星火、Gemini等国内外知名大模型标配功能。同时GraphRAG对tokens的需求很低,也就是说可以帮助开发者节省大量成本。
4月23日晚,微软在官网开源了小参数的大语言模型——Phi-3-mini。Phi-3-mini是微软Phi家族的第4代,有预训练和指令微调多种模型,参数只有38亿训练数据却高达3.3Ttokens,比很多数百亿参数的模型训练数据都要多,这也是其性能超强的主要原因之一。Phi-3-medium的性能可媲美Mixtral8x7B和GPT-3.5,资源消耗却更少。
清华和微软的研究人员提出了一种全新的方法,能在保证输出质量不变的前提下,将提示词压缩到原始长度的20%!在自然语言处理中,有很多信息其实是重复的。如果能将提示词进行有效地压缩,某种程度上也相当于扩大了模型支持上下文的长度。GPT-4可以有效地重建原始提示,这表明在LLMLingua-2压缩过程中并没有丢失基本信息。
LoRA的高效能力已在文生图领域获得广泛应用,可以准确渲染、融合图像中的特定元素,例如,不同字符、特殊服装或样式背景等,同时可对图像进行压缩、去噪、补全进行优化操作。但想在模型中应用多个LoRA构建更复杂的图像时,会出现图像失真、难以控制细节的难题。尤其是使用数量较多的LoRA组合时,生成高质量的效果更加明显。
近日,微软正式开源缓存存储系统Garnet,能更大限度发挥硬件功能,帮助开发人员更快地运行应用程序。微软研究院数据库小组高级首席研究员BadrishChandramouli介绍,Garnet项目是基于C#.NET8.0从零开始构建成,且以性能为核心考量。从基准性能图表来看,GET命令的吞吐量超过了Dragonfly十倍以上,第99百分位上的延迟却比Dragonfly更低,同时Garnet和Dragonfly在吞吐量和延迟上的表现均远远优于Redis。