11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
Hume.AI专注于开发能够理解人类情感和表情的技术,提供表情测量API和自定义模型API,以预测和改善人类福祉。近日发布的EVI是一款具有情感感知能力的对话AI,采用了情感大语言模型技术。如果您是研究人员、开发者或企业,不妨尝试Hume.AI提供的技术,探索其在情感计算领域的应用和潜力。
在众多开源的大型语言模型中,如LLaMA、Falcon和Mistral等,大多数仅公开了特定组件,如最终模型权重或推理脚本。技术文档通常集中在更广泛的设计方面和基本指标上,限制了该领域的进展,因为训练方法的清晰度不足,导致团队不断努力揭示训练过程的众多方面。如果您喜欢他们的工作,不要忘记加入MLSubReddit、Facebook社群、Discord频道和电子邮件通讯,以获取最新的AI研究新闻和有趣的AI项目。
香港浸会大学的研究团队通过深度催眠的方法,提出了一种新颖的大语言模型越狱攻击——DeepInception。该研究从心理学视角出发,揭示了LLM在应对人类指令时可能失去自我防御的特性。通过心理学视角的独特探索,DeepInception为理解和防范LLM越狱提供了有益的启示。
中国的研究人员近期提出了一项名为ControlLLM的创新框架,旨在增强大型语言模型在处理复杂的现实任务时的表现。尽管LLMs在处理自主代理的规划、推理和决策方面已经取得了显著进展,但在某些情况下,由于用户提示不清晰、工具选择错误以及参数设置和调度不足,它们可能需要辅助工具。ControlLLM整合了各种信息源,以生成基于执行结果的全面有意义的回应。
但凡偷懒一点,喜欢用浏览器或者翻译插件来看英语新闻的同学,估计都免不了在AI大模型火热的当下,被满篇的「法学硕士」晃得眼瞎不已。并不是大语言模型LLM真的和法学有强关联只是一个缩写词的歧义解释已。让我们拭目以待,看看这个小小的缩写将如何在我们的语言和技术中继续演化。
【新智元导读】MIT等学者的「世界模型」第二弹来了!这次,他们证明了LLM能够分清真话和假话通过「脑神经手术」,人类甚至还能给LLM打上思想钢印,改变它的信念。大语言模型是世界模型,又添新证据!前不久,MIT和东北大学的两位学者发现,在大语言模型内部有一个世界模型,能够理解空间和时间。下一步LLM还会给我们带来何种惊喜,实在令人期待。
OpenAI研究科学家HyungWonChung在首尔国立大学做了题为「LargeLanguageModels」的演讲。他在自己的YouTube频道上写到:「这是一次雄心勃勃的尝试,旨在总结我们这个爆炸性的领域。至于哪个AI模型将成为这个新范式的旗舰代表,就让我们拭目以待吧。
大语言模型在改变人们的生活和职业方面影响越来越大,因为它们实现了编程助手和通用聊天机器人等新应用。这些应用的运行需要大量硬件加速器如GPU,操作成本非常高。更大的模型、更复杂的解码算法和更长的序列会导致更明显的改进。
OnPrem.LLM是一个Python包,它可以帮助用户在本地机器上使用非公开数据运行大型语言模型。它受privateGPT仓库和SimonWillison的LLM命令行实用程序的启发,旨在帮助将本地LLM集成到实际应用中。OnPrem.LLM是一个非常有价值的工具,可以推动本地环境的LLM应用落地。
苹果公司近日发布了一款名为MLLLLMFerret-UI的新型机器学习语言模型,旨在提升对移动应用用户界面的理解。这款模型经过特别优化,能够处理移动UI屏幕上的各种任务,并具备指向、定位和推理等能力。Ferret-UI还能够通过功能推断来解释屏幕的整体目的,显示出在理解和生成自然语言指令方面的高级能力。
LLMPricing是一个聚合并比较各种大型语言模型定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。点击前往LLMPricing官网体验入口需求人群:适用于需要选择合适的大型语言模型进行项目开发的企业和开发者,帮助他们根据成本效益做出决策。
WebLLM是一个模块化、可定制的JavaScript包,旨在直接将语言模型聊天引入到Web浏览器中。与其他工具不同,一切都在浏览器内部运行,无需服务器支持,同时通过WebGPU进行加速。如果您正在寻找一种在Web浏览器上实现智能聊天的方法,不妨尝试WebLLM。
谷歌AI研究团队与加州大学圣迭戈分校的研究人员合作,提出了一种名为PixelLLM的智能模型,旨在解决大型语言模型在细粒度定位和视觉-语言对齐方面的挑战。这一模型的提出受到了人类自然行为的启发,尤其是婴儿描述其视觉环境的方式,包括手势、指向和命名。这一研究成果标志着在大型语言模型领域取得的一项重要进展,为实现更精确的视觉-语言对齐和定位打开了新的�
供本地使用的LLM通常作为一组权重分布在数GB文件中。这些软件不能直接单独使用,这通常使得它们比其他软件更难分发和运行。这些权重文件本身不能直接使用,需要通过特定的软件框架或环境来加载和运行,这使得与其他类型的软件相比,它们的分发和运行更加复杂。
自然语言处理领域的最大进展是引入了大型语言模型。这些基于NLP的模型处理大型复杂数据集,因此在金融行业面临着独特的挑战。DISC-FinLLM代表了对中国金融领域需求的创新回应,为LLMs在特定领域应用提供了一种全面有效的方法。
Evisort成功开发了专门用于法律协议的大型语言模型,并将其作为其新的多方位生成AI引擎的关键组成部分。该LLM将使Evisort能够提供比通用的第三方LLMs更准确和响应更灵活的AI创新,从帮助组织更好地管理合同。这一创新也受到了业界的认可,得到了微软风投M12的高度评价。
大语言模型微调中心是一个开源项目,它包含了大规模语言模型微调和部署的代码库以及相关研究成果。该项目由GeorgianPartners旗下的GeorgianIO团队开发,目的是帮助用户轻松地针对具体业务场景对各种LLM进行微调,并根据综合评估结果选择最适合的模型。该项目预计会持续迭代,支持越来越多前沿的LLM,并公开更多评估实验结果,以造福LLM领域的技术发展。
来自新加坡科技设计大学和新加坡管理大学的研究人员发布了一篇题为《LLM-Adapters:AnAdapterFamilyforParameter-EfficientFine-TuningofLargeLanguageModels》的论文。该论文介绍了一种名为LLM-Adapters的适配器系列,用于大型语言模型的参数高效微调。LLM-Adapters是一个强大的工具,可帮助用户快速搭建和优化大型语言模型,并在各种NLP任务上取得优秀的性能。
近期的研究发现,在上下文学习中,基于Transformer的前缀语言模型表现更优于因果语言模型,然目前仍缺乏这一差异的理论解释。本文采用理论分析和实验验证,揭示了前缀语言模型和因果语言模型在上下文学习中的性能差异,并证明了前缀语言模型在收敛行为和优化解上的优势。这一研究对于了解上下文学习中语言模型的工作原理和优化行为具有重要意义,值得进一步深入探究和应用。
有了3D-语言模型,去重庆导航也不在「话」下!大型语言模型和视觉语言模型在各种评测基准中都展现出了强大的性能,比如可以看图说话、进行常识推理。但这些模型的训练过程并没有引入3D物理世界,也就无法理解更丰富的现实概念,包括空间关系、布局、物体反馈等。还可以发现,以单视角图像或多视角图像作为输入,二维VLM的性能会比三维VLM下降很多,也就是说多视角�
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
GenerativeLargeLanguageModels在各种自然语言处理任务中取得了显著成功,包括问答和对话系统。大多数模型是在英文数据上训练的,缺乏在提供中文答案方面的强大泛化能力。MedChatZH的有效性有望为特定于不同语言和文化背景的LLMs开辟新途径。
OpenRouter是一个创新性的项目,它为大语言模型和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。AI角色聊天和故事,更好的ChatGPT用户界面等功能,为用户带来全新的AI体验。
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
微软研究团队引领着教育技术领域的不断创新,近日推出了一款名为Orca-Math的前沿工具,它是一款小语言模型,拥有7亿参数,并基于Mistral-7B架构微调来。这一创新方法重新定义了传统数学单词问题教学的策略,彻底改变了学生参与和掌握这一学科的方式。通过利用SLM通过合成数据集和迭代反馈来解锁学习工具的全新时代,Orca-Math为技术和学习手牵手走向解锁全球学生的全部潜力的未来提供了一瞥。
SLD 是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。点击前往SLD官网体验入口需求人群:适用于需要精确文本到图像对齐的研究者和开发者,以及希望进行图像生成和编辑的用户。使用场景示例:使用SLD框架根据文本提示生�
欢迎来到【今日AI】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。
来自不列颠哥伦比亚大学和InvertibleAI的研究人员推出了一款具有突破性的大型语言模型——FinTral,专为金融领域量身定制。FinTral采用了多模态方法,能够处理文本、数字、表格和视觉数据,以应对金融文件的复杂性。研究人员承认了研究中存在的限制和风险因素,并对未来发展充满乐观。
VSP-LLM是一个结合视觉语音处理与大型语言模型的框架,旨在通过LLMs的强大能力最大化上下文建模能力。VSP-LLM设计用于执行视觉语音识别和翻译的多任务,通过自监督视觉语音模型将输入视频映射到LLM的输入潜在空间。该框架通过提出一种新颖的去重方法和低秩适配器,可以高效地进行训练。
OpenWebUI是一个为LLMs设计的友好型Web用户界面,支持Ollama和OpenAI兼容的API。它提供了直观的聊天界面、响应式设计、快速响应性能、简易安装、代码语法高亮、Markdown和LaTeX支持、本地RAG集成、Web浏览能力、提示预设支持、RLHF注释、会话标记、模型下载/删除、GGUF文件模型创建、多模型支持、多模态支持、模型文件构建器、协作聊天、OpenAIAPI集成等功能。欲了解更多信息并体验OpenWebUI的强大功能,请访问OpenWebUI官方网站。