11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
Tanuki.py是一个用于构建LLM驱动应用的工具库。该库旨在通过自动模型蒸馏,实现应用在使用过程中的成本和延迟的逐渐降低,最多可达到90%的成本降低和80%的延迟降低。其类型感知、RAG支持和测试驱动的对齐方法使其成为构建可靠、可预测、逐渐优化的LLM-powered应用的理想选择。
大型语言模型是人工智能领域最新的引入,已经席卷全球。这些模型以其令人难以置信的能力,被人们广泛使用,无论是研究人员、科学家还是学生。对Atom的性能进行了全面评估,结果显示Atom极大地提高了LLM服务的吞吐量,吞吐量增益最多可达到7.7倍,同时仅有微小的准确性损失。
研究人员在解决大型语言模型精细调整的高成本和计算资源限制方面取得了重要突破。由斯坦福大学和加州大学伯克利分校的研究人员合作开发的S-LoRA技术,使得在单个图形处理单元上运行数千个LLM模型成为现实。这一创新为企业提供了更广阔的LLM应用空间,同时降低了运行成本,推动了个性化AI服务的发展。
DB-GPT是一个开源项目,旨在改变与数据库的互操作方式,它采用了本地化的大型GPT模型,为处理各种数据库相关情境提供了全面的解决方案。这个工具强调了隐私和数据安全,通过业务模块的定制化实施和分割,确保了LLM功能的完全机密性、安全性和可管理性。关于DB-GPT项目GitHub页面:https://github.com/eosphoros-ai/DB-GPT。
【新智元导读】大模型上下文从此不再受限!港中文贾佳亚团队联手MIT发布了全新超长文本扩展技术LongLoRA,只需2行代码,让LLM看小说,读论文,轻松拿捏。中途迷失、模型偷懒、上下文越长大模型越笨……体验过LLM的人,多少都会对文本输入长度带来的限制有所感触:实际上,这些都是典型的大语言模型对话缺陷。相距不过短短两个月,不得不说,这研究速度和能力跟LongLoRA一样惊人。
亚马逊在其2023年秋季硬件发布会上宣布了一项重大更新,将推出全新的Alexa语音助手,它将搭载全新的Alexa大语言模型技术,从带来更智能、更具对话性的家居控制体验。根据亚马逊设备与服务部门的高级副总裁戴夫·林普的介绍,新的Alexa将能够理解对话内容,更准确地解释上下文,并能够从单一指令中完成多个请求。这一更新将推动智能家居领域的发展,为用户提供更便捷�
“虽然在2012年到2015年间,深度学习在图像识别领域获得了巨大成功,但要达到通用人工智能需要时间。”这是读研究生时刘小洋的老教授告诉他的。如今竞赛才刚刚开始,入局的开发者们如何能在这条路上一直走下去需要时间给出答案。
随着LLM的突破性工作逐渐放缓,对于如何让更多人使用LLM成为时下热门的研究方向,模型压缩可能是LLM未来的一个出路。此前OpenAI首席科学家IlyaSutskever表示可以通过压缩的视角来看待无监督学习。常用基准包括但不限于HULK和ELUE。
【新智元导读】北京大学的研究人员开发了一种新型多模态框架FakeShield,能够检测图像伪造、定位篡改区域,并提供基于像素和图像语义错误的合理解释,可以提高图像伪造检测的可解释性和泛化能力。随着生成式人工智能的迅猛发展,图像编辑与合成技术变得愈加成熟与普及。表3:FakeShield与主流IFDL方法的定位性能比较另外,图4的主观结果对比也表明,FakeShield能够生成更加�
大模型的应用历来受幻觉所扰。这个幻觉可以指代LLM产生的任何类型的错误:事实不准确、偏见、常识推理失败等等。探针可以有效地识别正确答案的事实表明,LLM的内部编码与其外部行为之间存在重大脱节:即使模型编码了哪个答案是正确的信息,它在实践中仍然可能生成错误的答案。
【新智元导读】最近,大模型训练遭恶意攻击事件已经刷屏了。Anthropic也发布了一篇论文,探讨了前沿模型的巨大破坏力,他们发现:模型遇到危险任务时会隐藏真实能力会在代码库中巧妙地插入bug,躲过LLM和人类「检查官」的追踪!就在昨天,某大厂模型训练遭入侵的事件,惊动了整个AI圈。随着AI模型能力继续提升,这些评估和缓解措施还够用吗?Anthropic研究者也表示,希望其他AI研究者和开发者都能加入改进这些评估的行列。
【新智元导读】1%合成数据,就能让模型瞬间崩溃!来自Meta、NYU等机构团队证实,「微量」合成数据便让LLM弱不可堪。参数规模越大,模型崩溃越严重。JuliaKempeJuliaKempe是纽约大学数据科学中心和Courant数学科学研究所计算机科学、数学和数据科学的银牌教授,也是MetaFair的客座高级研究员。
近日,苹果公司的AI研究团队发表了一篇题为UnderstandingtheLimitationsofLargeLanguageModelsinMathematicalReasoning”的论文,揭示了大型语言模型在数学推理方面的显著局限性。尽管这些模型在生成人类水平的文本方面表现出色,但当处理简单的数学问题时,即使问题仅进行了微小的改动,如添加无关信息,模型的表现也会急剧下降。虽然LLM在许多领域表现优异,但其推理能力仍有待改进。
【新智元导读】PlaygroundResearch推出了新一代文本到图像模型PGv3,具备240亿参数量,采用深度融合的大型语言模型,实现了在图形设计和遵循文本提示指令上甚至超越了人类设计师,同时支持精确的RGB颜色控制和多语言识别。自去年以来,文本到图像生成模型取得了巨大进展,模型的架构从传统的基于UNet逐渐转变为基于Transformer的模型。多语言能力得益于语言模型天生能够理解�
【新智元导读】LLM不会规划,大推理模型o1可以吗?ASU团队最新研究发现,o1-preview推理规划能力是所有模型之最,但仍未触及天花板。团队希望这份研究报告能够很好地展示LLM和LRM的规划能力,并为如何切实评估它们提供有用的建议。
大语言模型还能向上突破,OpenAI再次证明了自己的实力。北京时间9月13日午夜,OpenAI正式公开一系列全新AI大模型,旨在专门解决难题。「除了新的o1系列模型,我们计划继续开发和发布我们的GPT系列模型。
图源:上海交通大学特聘教授俞勇朋友圈。Hi!大家好,说我是计算机杰出校友有点不敢当。上一代吃到了时代红利到了你们这一代,时代红利还是有的,只是需要付出更多努力。
【新智元导读】MITCSAIL的研究人员发现,LLM的「内心深处」已经发展出了对现实的模拟,模型对语言和世界的理解,绝不仅仅是简单的「鹦鹉学舌」。LLM会比今天更深层地理解语言。「实验设计很优雅,他们的发现也很乐观,这表明也许LLM可以更深入地了解语言的『含义』。
NicholasCarlini是谷歌DeepMind的一位研究科学家,近日,他撰写了一篇长达8万字的文章,介绍自己是怎么使用AI的。他详细列举了自己日常使用AI的50个实例说这些只是他所有AI应用的不到2%。作为一个拥有20年编程经验的科学家,Nicholas利用LLM显著提高了自己的工作效率,他相信,其他人也可以从中受益。
【新智元导读】Meta、UC伯克利、NYU共同提出元奖励语言模型,给「超级对齐」指条明路:让AI自己当裁判,自我改进对齐,效果秒杀自我奖励模型。LLM对数据的大量消耗,不仅体现在预训练语料上体现在RLHF、DPO等对齐阶段。研究结果提供了有力的证据,证明无需任何人类反馈的自我改进模型是实现超级对齐的一个有前途的方向。
【新智元导读】LLM能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主TimothyGowers分享了实测GPT-4o的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连Claude3.5也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的LLM都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任TimothyGowers直接拿GPT-4o开刀,去解决动物过河难题。LLM的未来究竟走向何处?最大的未知变量也许就在于,我们是否还能发现类似思维链这种解锁模型性能的「大杀器」了。
Meta搞了个很牛的LLMCompiler,帮助程序员更高效地写代码。三大AI巨头OpenAI、Google、Meta组团发布自家大模型最新研究成果——OpenAI推出基于GPT-4训练的专门找bug的新模型CriticGPT,谷歌开源9B、27B版Gemma2Meta则拿出了一项最新的人工智能突破——LLMCompiler。对于某些应用,LLM生成可以被限制在正则表达式内,或与自动验证相结合以确保正确性。
一直以来大模型欺骗人类,早已不是什么新鲜事了。最新研究竟发现,未经明确训练的LLM不仅会阿谀奉承,甚至入侵自己系统修改代码获得奖励。这种行为的潜在风险是巨大的,因此必须透彻理解它的根源,并采取有效的训练方法和预防措施来约束和管控这种行为,确保人工智能系统的安全性和可控性。
【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。EpochAI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,互联网上可用的人类文本数据将在四年后,即2028年耗尽。「最大的不确定性在于,你会看到什么样的技术突破。
苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。目前在移动设备上运行的模型相对较小,并且消耗大量内存,这在很大程度上限制了其应用场景。如果PowerInfer-2.0能够与手机厂商进一步紧密合作,相信可以加速相关技术走出实验室,落地到各种真实场景。
2024年6月11日,莫斯科——跨国科技公司Yandex最近推出了YaFSDP,这是一种用于训练大型语言模型的开源方法。YaFSDP是目前最有效的公开可用工具,用于增强GPU通信并减少LLM训练中的内存使用量,与FSDP相比,其训练速度提升最高可达26%,具体取决于架构和参数数量。Petals:是一个旨在简化LLM训练和微调过程的库,由YandexResearch、HSE大学、华盛顿大学、HuggingFace、巴黎-萨克雷高等经济学院和Yandex数据分析学院合作开发。
【新智元导读】在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构LAION的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了LLM基准测试的盲区。一道简单的逻辑问题,竟让几乎所有的LLM全军覆没?对于人类来说,这个名为「爱丽丝梦游仙境」的测试并不算很难——「爱丽丝有N个兄弟,
【新智元导读】最近,德国研究科学家发表的PANS论文揭示了一个令人担忧的现象:LLM已经涌现出「欺骗能力」,它们可以理解并诱导欺骗策。相比前几年的LLM,更先进的GPT-4、ChatGPT等模型在欺骗任务中的表现显著提升。」「试图用人类意图来解释模型行为,是一种范畴误用。
IBM研究发布了一项突破性的LLM基准测试方法,承诺将计算成本降低高达99%。传统的基准测试,如斯坦福的HELM,需要耗费超过一天的时间,并且成本高达1万美元,这对开发人员和研究人员来说是一个昂贵的过程。”IBM的高效基准测试方法代表了人工智能领域的重大进步,为评估先进语言模型所需的不断增加的成本和资源需求提供了实际解决方案。