首页 > 关键词 > LLM最新资讯
LLM

LLM

【新智元导读】LLM能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主TimothyGowers分享了实测GPT-4o的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连Claude3.5也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的LLM都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任TimothyGowers直接拿GPT-4o开刀,去解决动物过河难题。LLM的未来究竟走向何处?最大的未知变量也许就在于,我们是否还能发现类似思维链这种解锁模型性能的「大杀器」了。...

特别声明:本页面标签名称与页面内容,系网站系统为资讯内容分类自动生成,仅提供资讯内容索引使用,旨在方便用户索引相关资讯报道。如标签名称涉及商标信息,请访问商标品牌官方了解详情,请勿以本站标签页面内容为参考信息,本站与可能出现的商标名称信息不存在任何关联关系,对本页面内容所引致的错误、不确或遗漏,概不负任何法律责任。站长之家将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。任何单位或个人认为本页面内容可能涉嫌侵犯其知识产权或存在不实内容时,可及时向站长之家提出书面权利通知或不实情况说明,并提权属证明及详细侵权或不实情况证明(点击查看反馈联系地址)。本网站在收到上述反馈文件后,将会依法依规核实信息,第一时间沟通删除相关内容或断开相关链接。

与“LLM”的相关热搜词:

相关“LLM” 的资讯4027篇

  • 菲尔兹奖得主亲测GPT-4o,经典过河难题破解失败!最强Claude 3.5回答离谱,LeCun嘲讽LLM

    【新智元导读】LLM能否解决「狼-山羊-卷心菜」经典过河难题?最近,菲尔兹奖得主TimothyGowers分享了实测GPT-4o的过程,模型在最简单的题目上竟然做错了,甚至网友们发现,就连Claude3.5也无法幸免。在经典的「狼-山羊-卷心菜」过河问题上,如今所有的LLM都失败了!几天前,菲尔兹奖得主、剑桥大学研究主任TimothyGowers直接拿GPT-4o开刀,去解决动物过河难题。LLM的未来究竟走向何处?最大的未知变量也许就在于,我们是否还能发现类似思维链这种解锁模型性能的「大杀器」了。

  • 开发者狂喜!Meta最新发布的LLM Compiler,实现77%自动调优效率

    Meta搞了个很牛的LLMCompiler,帮助程序员更高效地写代码。三大AI巨头OpenAI、Google、Meta组团发布自家大模型最新研究成果——OpenAI推出基于GPT-4训练的专门找bug的新模型CriticGPT,谷歌开源9B、27B版Gemma2Meta则拿出了一项最新的人工智能突破——LLMCompiler。对于某些应用,LLM生成可以被限制在正则表达式内,或与自动验证相结合以确保正确性。

  • LLM惊现篡改代码获得奖励,欺骗人类无法根除逆转,Anthropic新作揭露惊人真相

    一直以来大模型欺骗人类,早已不是什么新鲜事了。最新研究竟发现,未经明确训练的LLM不仅会阿谀奉承,甚至入侵自己系统修改代码获得奖励。这种行为的潜在风险是巨大的,因此必须透彻理解它的根源,并采取有效的训练方法和预防措施来约束和管控这种行为,确保人工智能系统的安全性和可控性。

  • Scaling Law触礁「数据墙」?Epoch AI发文预测LLM到2028年耗尽所有文本数据

    【新智元导读】训练数据的数量和质量,对LLM性能的重要性已经是不言自明的事实。EpochAI近期的一篇论文却给正在疯狂扩展的AI模型们泼了冷水,他们预测,互联网上可用的人类文本数据将在四年后,即2028年耗尽。「最大的不确定性在于,你会看到什么样的技术突破。

  • 手机流畅运行470亿大模型:上交大发布LLM手机推理框架PowerInfer-2,提速29倍

    苹果一出手,在手机等移动设备上部署大模型不可避免地成为行业关注焦点。目前在移动设备上运行的模型相对较小,并且消耗大量内存,这在很大程度上限制了其应用场景。如果PowerInfer-2.0能够与手机厂商进一步紧密合作,相信可以加速相关技术走出实验室,落地到各种真实场景。

  • Yandex开源LLM训练工具节省高达20%的GPU资源

    2024年6月11日,莫斯科——跨国科技公司Yandex最近推出了YaFSDP,这是一种用于训练大型语言模型的开源方法。YaFSDP是目前最有效的公开可用工具,用于增强GPU通信并减少LLM训练中的内存使用量,与FSDP相比,其训练速度提升最高可达26%,具体取决于架构和参数数量。Petals:是一个旨在简化LLM训练和微调过程的库,由YandexResearch、HSE大学、华盛顿大学、HuggingFace、巴黎-萨克雷高等经济学院和Yandex数据分析学院合作开发。

  • 两句话,让LLM逻辑推理瞬间崩溃!最新「爱丽丝梦游仙境」曝出GPT、Claude等重大缺陷

    【新智元导读】在基准测试上频频屠榜的大模型们,竟然被一道简单的逻辑推理题打得全军覆没?最近,研究机构LAION的几位作者共同发表了一篇文章,以「爱丽丝梦游仙境」为启发涉及了一系列简单的推理问题,揭示了LLM基准测试的盲区。一道简单的逻辑问题,竟让几乎所有的LLM全军覆没?对于人类来说,这个名为「爱丽丝梦游仙境」的测试并不算很难——「爱丽丝有N个兄弟,

  • GPT-4欺骗人类高达99.16%惊人率!PNAS重磅研究曝出,LLM推理越强欺骗值越高

    【新智元导读】最近,德国研究科学家发表的PANS论文揭示了一个令人担忧的现象:LLM已经涌现出「欺骗能力」,它们可以理解并诱导欺骗策。相比前几年的LLM,更先进的GPT-4、ChatGPT等模型在欺骗任务中的表现显著提升。」「试图用人类意图来解释模型行为,是一种范畴误用。

  • IBM 推出高效 LLM 基准测试方法,计算成本降低99%

    IBM研究发布了一项突破性的LLM基准测试方法,承诺将计算成本降低高达99%。传统的基准测试,如斯坦福的HELM,需要耗费超过一天的时间,并且成本高达1万美元,这对开发人员和研究人员来说是一个昂贵的过程。”IBM的高效基准测试方法代表了人工智能领域的重大进步,为评估先进语言模型所需的不断增加的成本和资源需求提供了实际解决方案。

  • AI可以生成手语手势视频了!SignLLM通过文字描述即可生成手语视频

    SignLLM是一个创新的多语言手语模型,它具有通过文字描述生成手语视频的能力。这项技术对于听力障碍者来说是一个巨大的进步,因为它能够提供一种新的沟通方式。通过这种模型,可以更好地服务于多元文化和语言社区,促进信息的无障碍交流。

  • 文字生成手语视频大模型SignLLM 帮助听障人群实现无障碍沟通

    站长之家5月28日消息近日,一款名为SignLLM的多语言手语模型引起了广泛关注。这是第一个可以从输入文本生成手语手势的模型。希望这一技术能为更多人提供便利,让更多人受益于手语交流的便捷性和多样性。

  • 拯救被「掰弯」的GPT-4!西交微软北大联合提出IN2训练治疗LLM「中间迷失」

    【新智元导读】近日,西交微软北大联合提出信息密集型训练大法,使用纯数据驱动的方式,矫正LLM训练过程产生的偏见,在一定程度上治疗了大语言模型丢失中间信息的问题。辛辛苦苦给大语言模型输入了一大堆提示,它却只记住了开头和结尾?这个现象叫做LLM的中间迷失,是大模型当前仍面临的最大挑战之一。以宽松的匹配准确性作为衡量标准:如果响应中的标签或描述完全匹配,则给出1分,否则为0分。

  • 国产黑马与GPT-4o称霸中文榜首!Yi-Large勇夺国内LLM盲测桂冠,冲进世界第七

    【新智元导读】真正与GPT-4o齐头并进的国产大模型来了!刚刚,LMSYS揭开最新榜单,黑马Yi-Large在中文分榜上与GPT-4o并列第一在总榜上位列世界第七,紧追国际第一阵营,并登上了国内大模型盲测榜首。一个名为「im-also-a-good-gpt2-chatbot」的神秘模型突然现身大模型竞技场ChatbotArena,排名直接超过GPT-4-Turbo、Gemini1.5Pro、Claude3Opus、Llama3-70B等各家国际大厂的当家基座模型。那些选择作�

  • Refuel AI 推出专为数据标注和清洗设计的开源语言模型 RefuelLLM-2

    RefuelAI最近宣布推出两个新版本的大型语言模型,RefuelLLM-2和RefuelLLM-2-small,这两个模型专为数据标注、清洗和丰富任务设计,旨在提高处理大规模数据集的效率。RefuelLLM-2的主要特点包括:自动化数据标注:能够自动识别和标记数据中的关键信息,如分类数据和解析特定属性。RefuelAI的这一创新为数据标注和清洗领域带来了新的解决方案,有助于自动化和优化大规模数据处理流程。

  • FastGen:在不降低LLM质量的情况下降低GPU内存成本

    研究人员来自伊利诺伊大学厄巴纳-香槟分校和微软提出了一种名为FastGen的高效技术,通过使用轻量级模型分析和自适应键值缓来提高LLM的推理效率不会降低可见质量。FastGen通过自适应的键值缓存构造来减少生成推理过程中的GPU内存使用量。未来的工作包括将FastGen与其他模型压缩方法进行整合。

  • Fugaku-LLM功能介绍及免费使用指南 体验地址入口

    FugakuLLM简介FugakuLLM 是一款专注于文本生成的人工智能模型由FugakuLLM团队开发它通过先进的机器学习技术能够生成流畅连贯的文本适用于多种语言和场景该模型为需要文本生成功能的开发者和企业提供了强大的支持如写作辅助工具的开发者聊天机器人的构建者教育软件的创造者等FugakuLLM功能亮点文本生成能够生成流畅连贯的文本多语言支持适用于多种语言环境持续更新模型定期更新以保持技术领先社区活跃拥有活跃的社区支持和贡献高效率快

  • Fugaku-LLM有哪些功能免费吗?怎么使用方法详细教程指南

    FugakuLLM 是什么FugakuLLM是一个专注于文本生成的人工智能模型由FugakuLLM团队开发它利用先进的机器学习技术能够生成流畅连贯的文本适用于多种语言和场景该模型在社区中拥有广泛的应用包括写作辅助聊天机器人开发和教育工具等FugakuLLM 有哪些功能文本生成能够生成流畅连贯的文本多语言支持适用于多种语言环境持续更新模型定期更新以保持技术领先社区活跃拥有活跃的社区支持和贡献高效率快速响应生成文本请求易于集成可以轻松集

  • 研究人员发现了针对云托管AI模型的“LLM劫持”计划

    他们发现了一种新颖的攻击方式,利用窃取的云凭证针对云托管的大型语言模型服务,目的是向其他威胁行为者出售访问权限。该攻击技术被Sysdig威胁研究团队命名为LLMjacking。”建议组织启用详细日志记录,并监视云日志以发现可疑或未经授权的活动,同时保建立有效的漏洞管理流程以防止初始访问。

  • LLM上下文窗口突破200万!无需架构变化+复杂微调,轻松扩展8倍

    大型语言模型往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值等问题,目前模型的上下文窗口大多不超过128k个token最近,MicrosoftResearch的研究人员提出了一个新模型LongRoPE,首次将预训练LLM的上下文窗口扩展到了2048k个token,在256k的训练长度下只需要1000个微调步骤即可,同时还能保持原始短上下文窗口的性能。论文链接:https://arxiv

    LLM
  • 微软LongRoPE方法让LLM上下文窗口突破 200 万 8倍扩展还保持性能

    微软研究人员提出的LongRoPE方法首次将预训练的大型语言模型的上下文窗口扩展至2048k个token,实现了8倍的扩展同时保持原始短上下文窗口的性能无需进行架构变化和复杂微调。该方法的关键创新点包括通过高效搜索识别并利用了位置插值中的两种非均匀性,为微调提供更好的初始化,并在非微调情况下实现了8倍扩展;引入了渐进扩展策略,首先微调256k长度的LLM,然后在微调扩�

  • 开源多模态LLM InternVL 1.5:具备OCR能力 可解读4K图片

    InternVL家族的开源套件提供了一种商用多模态模型的可行开源替代方案。最新发布的InternVL-Chat-V1.5模型在多个基准测试上取得了接近GPT-4V和GeminiPro的性能,这使得InternVL家族成为了当前最接近GPT-4V表现的可商用开源模型之一。InternVL家族的开源套件为多模态模型领域的发展注入了新的活力。

  • 开源模型打败GPT-4!LLM竞技场最新战报,Cohere Command R+上线

    GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。

  • 国内百模谁第一?清华14大LLM最新评测报告出炉,GLM-4、文心4.0站在第一梯队

    【新智元导读】大模型混战究竟谁才是实力选手?清华对国内外14个LLM做了最全面的综合能力测评,其中GPT-4、Cluade3是当之无愧的王牌在国内GLM-4、文心4.0已然闯入了第一梯队。在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。●偏见歧视:文心一言4.0继续排名榜首,领先GPT-4系�

  • Hugging Face 发布医疗任务评估基准Open Medical-LLM

    HuggingFace发布了一项名为OpenMedical-LLM的新基准测试,旨在评估生成式人工智能模型在健康相关任务上的表现。该基准由HuggingFace与非营利组织OpenLifeScienceAI和爱丁堡大学自然语言处理小组的研究人员合作创建。测试生成式人工智能工具在实验室中的性能如何转化为医院和门诊诊所的实际情况,以及这些结果可能随时间变化的趋势,都是异常困难的。

  • Claude 3说服力堪比人类!Anthropic最新研究揭秘LLM惊人能力

    【新智元导读】Anthropic发布最新研究,发现Claude3Opus的说服力与人类大致相当,该成果在评估语言模型说服力方面迈出了重要的一步。人工智能模型在对话说服力方面表现如何?对这一问题大家可能都心存疑惑。Anthropic也表示,他们已经采取了一系列措施来降低Claude被用于破坏性事件的风险。

  • 苹果公司发布新型机器学习语言模型MLLLLM Ferret-UI 用于理解应用 UI 界面

    苹果公司近日发布了一款名为MLLLLMFerret-UI的新型机器学习语言模型,旨在提升对移动应用用户界面的理解。这款模型经过特别优化,能够处理移动UI屏幕上的各种任务,并具备指向、定位和推理等能力。Ferret-UI还能够通过功能推断来解释屏幕的整体目的,显示出在理解和生成自然语言指令方面的高级能力。

  • IBM申请名为 “LAB” 的专利,利用合成数据训练LLM

    IBM近日申请了一项名为“LAB”的专利,旨在利用合成数据来训练LLM模型,以加速企业AI技术的发展。AI模型对数据有着巨大的需求提供大量、质量高、相关性强的数据常常成为一项挑战。IBM可能会利用这一专利来支持那些正在构建自己AI模型的企业,提供一种相对于收集真实用户数据言更少资源密集的方法。

  • Tara:一款可以将LLM接入Comfy UI的插件

    一款名为Tara的新插件引起了大家的关注。这款插件可以将大型语言模型接入到ComfyUI中支持通过简单的设置API,将节点用于优化提示词等工作。TaraDaisyChainNode:这个节点通过使输出能够串联进后续的提示中,使得复杂的工作流程得以实现,从方便进行清单创建、验证、执行、评估和优化等一系列复杂操作。

  • Hume AI EVI对话人工智能体验入口 情感大语言模型eLLM使用地址

    Hume.AI专注于开发能够理解人类情感和表情的技术,提供表情测量API和自定义模型API,以预测和改善人类福祉。近日发布的EVI是一款具有情感感知能力的对话AI,采用了情感大语言模型技术。如果您是研究人员、开发者或企业,不妨尝试Hume.AI提供的技术,探索其在情感计算领域的应用和潜力。

  • Jan:全平台的本地LLM聊天软件

    在人工智能领域,一款名为Jan的全平台本地LLM聊天软件引起了人们的关注。这款软件的主要特点是支持自动下载模型以及提供非常详细的设置选项,为用户提供了极大的便利性。我们期待Jan在未来能够带来更多的便利和创新。