11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
大模型浪潮正在重构千行百业。可以预见的是,随着技术的不断进步以及应用场景的不断扩展,基于大模型的AI应用将会不断涌现,并成为推动AI产业发展的重要力量。曾在腾讯云CODINGDevOps团队负责产品及运营管理工作,服务超百万开发者用户的平台产品。
研究人员来自伊利诺伊大学厄巴纳-香槟分校和微软提出了一种名为FastGen的高效技术,通过使用轻量级模型分析和自适应键值缓来提高LLM的推理效率不会降低可见质量。FastGen通过自适应的键值缓存构造来减少生成推理过程中的GPU内存使用量。未来的工作包括将FastGen与其他模型压缩方法进行整合。
微软研究人员提出的LongRoPE方法首次将预训练的大型语言模型的上下文窗口扩展至2048k个token,实现了8倍的扩展同时保持原始短上下文窗口的性能无需进行架构变化和复杂微调。该方法的关键创新点包括通过高效搜索识别并利用了位置插值中的两种非均匀性,为微调提供更好的初始化,并在非微调情况下实现了8倍扩展;引入了渐进扩展策略,首先微调256k长度的LLM,然后在微调扩�
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
HuggingFace发布了一项名为OpenMedical-LLM的新基准测试,旨在评估生成式人工智能模型在健康相关任务上的表现。该基准由HuggingFace与非营利组织OpenLifeScienceAI和爱丁堡大学自然语言处理小组的研究人员合作创建。测试生成式人工智能工具在实验室中的性能如何转化为医院和门诊诊所的实际情况,以及这些结果可能随时间变化的趋势,都是异常困难的。
【新智元导读】Anthropic发布最新研究,发现Claude3Opus的说服力与人类大致相当,该成果在评估语言模型说服力方面迈出了重要的一步。人工智能模型在对话说服力方面表现如何?对这一问题大家可能都心存疑惑。Anthropic也表示,他们已经采取了一系列措施来降低Claude被用于破坏性事件的风险。
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM,并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。要了解更多信息并开始使用LLM4Decompile,请访问LLM4Decompile官方网站。
OpenRouter是一个创新性的项目,它为大语言模型和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。AI角色聊天和故事,更好的ChatGPT用户界面等功能,为用户带来全新的AI体验。
LLMPricing是一个聚合并比较各种大型语言模型定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。点击前往LLMPricing官网体验入口需求人群:适用于需要选择合适的大型语言模型进行项目开发的企业和开发者,帮助他们根据成本效益做出决策。
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
【新智元导读】刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!AGI真的越来越近了!为了确保人类不被AI杀死,在解密神经网络/Transfomer黑箱这一方面,OpenAI从未停下脚步。研究人员使用了了几个附加指标的组合:不过研究人员也表示,希望从Transformer上训练的稀疏自动编码器中,为字典学习解决方案确定更好的指标。
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
设计在特定环境中实现目标的一系列操作是测试人工智能能力和规划能力的重要标志。这一领域通过算法来制定潜在的操作序列,以寻找最优解,对于从机器人到自动决策系统等应用至关重要。IBMResearch团队的工作强调了将经典规划方法与LLMs先进能力相结合的转变潜力,为未来创造更可靠和复杂的人工智能系统奠定了基础。
宾夕法尼亚大学、多伦多大学和Vector研究所的研究人员推出了一款名为DataDreamer的新工具。DataDreamer是一款综合解决方案,旨在简化和管理各种任务中的大语言模型的集成和利用。有了DataDreamer,研究人员有了一个强大的盟友,可以解决大语言模型的复杂性,开启新的可能性。
来自不列颠哥伦比亚大学和InvertibleAI的研究人员推出了一款具有突破性的大型语言模型——FinTral,专为金融领域量身定制。FinTral采用了多模态方法,能够处理文本、数字、表格和视觉数据,以应对金融文件的复杂性。研究人员承认了研究中存在的限制和风险因素,并对未来发展充满乐观。
VSP-LLM是一种通过观察视频中人的嘴型来理解和翻译说话内容的技术,也就是识别唇语。该技术能够将视频中的唇动转化为文本,并将这些唇动直接翻译成目标语言的文本。为了进一步提升训练的计算效率,VSP-LLM采用了低秩适配器技术,这种优化训练过程的方法能够减少计算资源的需求。
VSP-LLM是一个结合视觉语音处理与大型语言模型的框架,旨在通过LLMs的强大能力最大化上下文建模能力。VSP-LLM设计用于执行视觉语音识别和翻译的多任务,通过自监督视觉语音模型将输入视频映射到LLM的输入潜在空间。该框架通过提出一种新颖的去重方法和低秩适配器,可以高效地进行训练。
OpenWebUI是一个为LLMs设计的友好型Web用户界面,支持Ollama和OpenAI兼容的API。它提供了直观的聊天界面、响应式设计、快速响应性能、简易安装、代码语法高亮、Markdown和LaTeX支持、本地RAG集成、Web浏览能力、提示预设支持、RLHF注释、会话标记、模型下载/删除、GGUF文件模型创建、多模型支持、多模态支持、模型文件构建器、协作聊天、OpenAIAPI集成等功能。欲了解更多信息并体验OpenWebUI的强大功能,请访问OpenWebUI官方网站。
谷歌DeepMind和斯坦福的研究人员发现大型语言模型在处理逻辑推理任务时,前提信息的呈现顺序对其表现具有决定性影响。在逻辑推理和数学问题中,前提按照逻辑自然顺序排列时,模型表现更佳。在逻辑推理中,前提顺序对大型语言模型推理表现有重大影响,如何应对这一问题仍是一个挑战。
大语言模型是否是世界模型?大语言模型除了在数字世界完成如写作或翻译等任务,它们能否理解并处理物理世界中的信息并进完成更广泛的任务呢?最近来自香港科技大学、南洋理工大学与加利福尼亚大学洛杉矶分校的研究者们提供了新的思路:他们发现大语言模型如ChatGPT可以理解传感器信号进完成物理世界中的任务。该项目初步成果发表于ACMHotMobile2024。如想进一步了解渗透式
LLM智能体被众多业界AI大佬看好,甚至有望成为将人类从琐碎工作中解放出来的利器。它们该如何与世界进行最佳互动?最近,来自UIUC和苹果的华人研究员,提出了一种全新的智能体框架——CodeAct。在表5中,研究人员还发现CodeActAgent在测试的一般LLM任务中表现更好,除了CodeActAgent在MMLU上略有下降。
PokéLLMon是首个在战术战斗游戏中实现人类水平性能的LLM体现代理。它融合了三种关键策略:1)基于上下文的强化学习,即时利用从战斗中提取的文本描述反馈,迭代地优化其生成策略;2)知识增强生成,利用外部知识对抗幻觉,使代理能够及时和正确地行动;3)具有自一致性的动作生成,以减轻当代理面对强大对手并希望避免战斗时的惊慌切换现象。通过PokéLLMon学习战术战斗游戏的优秀策略。
穆罕默德・本・扎耶德人工智能大学VILALab带来了一项关于如何更好地为不同规模的大模型书写提示词的研究,让大模型性能在不需要任何额外训练的前提下轻松提升50%以上。该工作在X、Reddit和LinkedIn等平台上都引起了广泛的讨论和关注。更多提示词原则使用方法和说明,欢迎阅读原文。
【新智元导读】大模型幻觉问题还有另一种解法?斯坦福联手OpenAI研究人员提出「元提示」新方法,能够让大模型成为全能「指挥家」,汇聚不同专家模型精华,让GPT-4的输出更精准。当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。在加入微软研究院之前,他曾在乔治亚理工学院和丰田工业大学芝加哥分校担任计算机科学助理教授。
谷歌正迅速成为其最好的朋友英伟达的强大对手——其超级计算机所使用的TPUv5p人工智能芯片比以往任何时候都更快、更大、更宽,甚至超过了强大的H100。谷歌在最近推出其Gemini人工智能模型的同时,也发布了其最新版本的旗舰张量处理单元,用于人工智能的训练和推理,这似乎是一种挑战英伟达自己的市场领先的图形处理器的尝试。粗略的计算表明,TPUv5p大约比A100快3.4到4.8倍,这使得它与H100相当或者更优秀,尽管在得出任何结论之前,需要更详细的基准测试。
【新智元导读】谷歌Bard又行了?在第三方LLM「排位赛」排行榜上,Bard击败GPT-4成为第二名。JeffDean兴奋宣布:谷歌回来了!一夜之间,Bard逆袭GPT-4,性能直逼最强GPT-4Turbo!这个听起来似乎像梦里的事情,确确实实地发生了。对局限性和偏见的讨论实事求是、坦诚直接。
WebLLM是一个模块化、可定制的JavaScript包,旨在直接将语言模型聊天引入到Web浏览器中。与其他工具不同,一切都在浏览器内部运行,无需服务器支持,同时通过WebGPU进行加速。如果您正在寻找一种在Web浏览器上实现智能聊天的方法,不妨尝试WebLLM。
音乐发行商,包括环球音乐、康科德和ABKCO在一场侵权法律纠纷中向Anthropic提出了初步禁令。这家得到亚马逊和谷歌支持的生成式AI公司最近正式回应了这一请求。“关于原告的[ClaudeAI]提示产生的副本,记录中唯一的证据是原告及其代理商不是Anthropic制作了所谓的侵权副本…在这种情况下,输出副本不构成Anthropic的复制。
RPG-DiffusionMaster是一个利用LLM优化SD文本到图像的转换过程的框架。该框架能够更好地理解和分解生成图像的文字提示,以实现将一幅图像分解成不同的部分或区域,并根据理解的相应文本提示来生成图像,最后合成为一个符合预期要求的图像。实验结果表明,RPG框架能够根据复杂的文本描述生成高度准确和详细的图像,优于现有技术,并具有灵活性和广泛的适用性,能够应用�
【新智元导读】AI训AI必将成为一大趋势。Meta和NYU团队提出让大模型「自我奖励」的方法,让Llama2一举击败GPT-40613、Claude2、GeminiPro领先模型。还有人表示「令人惊讶的是,每次迭代的改进几乎保持线性,仅在3次迭代之后,就已经接近GPT-4级别」。