11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
TigerLab是一款开源的大型语言模型工具包,旨在构建定制化的语言模型应用程序。它填补了一般大型语言模型与为其提供上下文信息的数据存储之间的巨大差距。它提供了丰富的资源和示例,使开发者能够更好地利用大型语言模型来满足其具体的应用需求。
加拿大多伦多的人工智能初创公司Cohere已经发布了EmbedV3,这是其嵌入模型的最新版本,旨在为语义搜索和大型语言模型应用提供支持。嵌入模型将数据转换为数字表示,通常称为“嵌入”,由于大型语言模型的崛起以及它们在企业应用中的潜在用途,嵌入模型备受关注。Cohere的EmbedV3提供了一种强大的工具,用于帮助企业构建LLM应用,提高性能并降低运营成本,为语义搜索和大
Cohere的最新嵌入模型EmbedV3旨在帮助企业构建大型语言模型应用程序,具有出色的数据压缩功能。该模型与OpenAI的Ada竞争,承诺卓越性能。EmbedV3的高性能和多功能性使其成为企业构建LLM应用程序的有力工具。
大型语言模型往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值等问题,目前模型的上下文窗口大多不超过128k个token最近,MicrosoftResearch的研究人员提出了一个新模型LongRoPE,首次将预训练LLM的上下文窗口扩展到了2048k个token,在256k的训练长度下只需要1000个微调步骤即可,同时还能保持原始短上下文窗口的性能。论文链接:https://arxiv
微软研究人员提出的LongRoPE方法首次将预训练的大型语言模型的上下文窗口扩展至2048k个token,实现了8倍的扩展同时保持原始短上下文窗口的性能无需进行架构变化和复杂微调。该方法的关键创新点包括通过高效搜索识别并利用了位置插值中的两种非均匀性,为微调提供更好的初始化,并在非微调情况下实现了8倍扩展;引入了渐进扩展策略,首先微调256k长度的LLM,然后在微调扩�
InternVL家族的开源套件提供了一种商用多模态模型的可行开源替代方案。最新发布的InternVL-Chat-V1.5模型在多个基准测试上取得了接近GPT-4V和GeminiPro的性能,这使得InternVL家族成为了当前最接近GPT-4V表现的可商用开源模型之一。InternVL家族的开源套件为多模态模型领域的发展注入了新的活力。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
【新智元导读】大模型混战究竟谁才是实力选手?清华对国内外14个LLM做了最全面的综合能力测评,其中GPT-4、Cluade3是当之无愧的王牌在国内GLM-4、文心4.0已然闯入了第一梯队。在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。●偏见歧视:文心一言4.0继续排名榜首,领先GPT-4系�
HuggingFace发布了一项名为OpenMedical-LLM的新基准测试,旨在评估生成式人工智能模型在健康相关任务上的表现。该基准由HuggingFace与非营利组织OpenLifeScienceAI和爱丁堡大学自然语言处理小组的研究人员合作创建。测试生成式人工智能工具在实验室中的性能如何转化为医院和门诊诊所的实际情况,以及这些结果可能随时间变化的趋势,都是异常困难的。
【新智元导读】Anthropic发布最新研究,发现Claude3Opus的说服力与人类大致相当,该成果在评估语言模型说服力方面迈出了重要的一步。人工智能模型在对话说服力方面表现如何?对这一问题大家可能都心存疑惑。Anthropic也表示,他们已经采取了一系列措施来降低Claude被用于破坏性事件的风险。
苹果公司近日发布了一款名为MLLLLMFerret-UI的新型机器学习语言模型,旨在提升对移动应用用户界面的理解。这款模型经过特别优化,能够处理移动UI屏幕上的各种任务,并具备指向、定位和推理等能力。Ferret-UI还能够通过功能推断来解释屏幕的整体目的,显示出在理解和生成自然语言指令方面的高级能力。
IBM近日申请了一项名为“LAB”的专利,旨在利用合成数据来训练LLM模型,以加速企业AI技术的发展。AI模型对数据有着巨大的需求提供大量、质量高、相关性强的数据常常成为一项挑战。IBM可能会利用这一专利来支持那些正在构建自己AI模型的企业,提供一种相对于收集真实用户数据言更少资源密集的方法。
一款名为Tara的新插件引起了大家的关注。这款插件可以将大型语言模型接入到ComfyUI中支持通过简单的设置API,将节点用于优化提示词等工作。TaraDaisyChainNode:这个节点通过使输出能够串联进后续的提示中,使得复杂的工作流程得以实现,从方便进行清单创建、验证、执行、评估和优化等一系列复杂操作。
Hume.AI专注于开发能够理解人类情感和表情的技术,提供表情测量API和自定义模型API,以预测和改善人类福祉。近日发布的EVI是一款具有情感感知能力的对话AI,采用了情感大语言模型技术。如果您是研究人员、开发者或企业,不妨尝试Hume.AI提供的技术,探索其在情感计算领域的应用和潜力。
在人工智能领域,一款名为Jan的全平台本地LLM聊天软件引起了人们的关注。这款软件的主要特点是支持自动下载模型以及提供非常详细的设置选项,为用户提供了极大的便利性。我们期待Jan在未来能够带来更多的便利和创新。
微软研究发布了名为LLMLingua-2的模型,用于任务不可知的提示压缩。该模型通过智能地去除长提示中的不必要词语或标记,同时保留关键信息,使得提示长度可减少至原长度的20%,从降低成本和延迟。该公司认为这是一个有前途的方法,可以通过压缩提示实现更好的泛化能力和效率。
GenerativeLargeLanguageModels在各种自然语言处理任务中取得了显著成功,包括问答和对话系统。大多数模型是在英文数据上训练的,缺乏在提供中文答案方面的强大泛化能力。MedChatZH的有效性有望为特定于不同语言和文化背景的LLMs开辟新途径。
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM,并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。要了解更多信息并开始使用LLM4Decompile,请访问LLM4Decompile官方网站。
随着人工智能和主要是生成式AI领域的进展,已经展示了大型语言模型生成文本以响应输入或提示的能力。这些模型能够像人类一样生成文本,回答问题,总结长篇文本段落等。GENAUDIT是一款优秀的工具,有助于改善具有强大文档基础的任务中的事实核查程序,并提高LLM生成的信息在重要应用中的可靠性。
OpenRouter是一个创新性的项目,它为大语言模型和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。AI角色聊天和故事,更好的ChatGPT用户界面等功能,为用户带来全新的AI体验。
LLMPricing是一个聚合并比较各种大型语言模型定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。点击前往LLMPricing官网体验入口需求人群:适用于需要选择合适的大型语言模型进行项目开发的企业和开发者,帮助他们根据成本效益做出决策。
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
【新智元导读】刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!AGI真的越来越近了!为了确保人类不被AI杀死,在解密神经网络/Transfomer黑箱这一方面,OpenAI从未停下脚步。研究人员使用了了几个附加指标的组合:不过研究人员也表示,希望从Transformer上训练的稀疏自动编码器中,为字典学习解决方案确定更好的指标。
在人工智能领域,很少有像YannLeCun这样的学者,在65岁的年龄还能高度活跃于社交媒体。YannLeCun都是以「直言不讳的批评者」形象活跃于人工智能领域。在拥有世界模型、能够自训练以了解世界如何运作的系统之前,我们不会在机器人技术方面取得重大进展。
微软研究团队引领着教育技术领域的不断创新,近日推出了一款名为Orca-Math的前沿工具,它是一款小语言模型,拥有7亿参数,并基于Mistral-7B架构微调来。这一创新方法重新定义了传统数学单词问题教学的策略,彻底改变了学生参与和掌握这一学科的方式。通过利用SLM通过合成数据集和迭代反馈来解锁学习工具的全新时代,Orca-Math为技术和学习手牵手走向解锁全球学生的全部潜力的未来提供了一瞥。
SLD 是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。点击前往SLD官网体验入口需求人群:适用于需要精确文本到图像对齐的研究者和开发者,以及希望进行图像生成和编辑的用户。使用场景示例:使用SLD框架根据文本提示生�
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
设计在特定环境中实现目标的一系列操作是测试人工智能能力和规划能力的重要标志。这一领域通过算法来制定潜在的操作序列,以寻找最优解,对于从机器人到自动决策系统等应用至关重要。IBMResearch团队的工作强调了将经典规划方法与LLMs先进能力相结合的转变潜力,为未来创造更可靠和复杂的人工智能系统奠定了基础。
MovieLLM是一个创新框架,旨在为长视频创建合成的、高质量的数据。该框架利用GPT-4和文本到图像模型的力量,生成详细的脚本和相应的视觉内容。MovieLLM将为您提供强大的支持和创意工具,让视频创作更加简单和高效。
复旦大学和腾讯PCG的研究人员共同开发了一个名为MovieLLM的新颖框架,该框架能够从简单的文本提示中生成高质量、电影级别的视频数据。令人惊讶的是,MovieLLM甚至能仅通过一个词或一个句子就能创作出一部完整的电影。这一研究成果对于AI在视频领域的应用具有重要的推动作用,也为我们理解和利用AI提供了新的视角。