11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
RefuelAI最近宣布推出两个新版本的大型语言模型,RefuelLLM-2和RefuelLLM-2-small,这两个模型专为数据标注、清洗和丰富任务设计,旨在提高处理大规模数据集的效率。RefuelLLM-2的主要特点包括:自动化数据标注:能够自动识别和标记数据中的关键信息,如分类数据和解析特定属性。RefuelAI的这一创新为数据标注和清洗领域带来了新的解决方案,有助于自动化和优化大规模数据处理流程。
InternVL家族的开源套件提供了一种商用多模态模型的可行开源替代方案。最新发布的InternVL-Chat-V1.5模型在多个基准测试上取得了接近GPT-4V和GeminiPro的性能,这使得InternVL家族成为了当前最接近GPT-4V表现的可商用开源模型之一。InternVL家族的开源套件为多模态模型领域的发展注入了新的活力。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
医疗人工智能技术正在迅速发展,旨在利用大型语言模型的巨大潜力彻底改变医疗保健交付方式。这些技术进步承诺提高诊断准确性,个性化治疗方案,并解锁全面医学知识的获取,从根本上改变患者护理。该倡议弥补了全球医疗沟通中的重要差距,并为未来的多语言医疗AI创新奠定了基础。
【新智元导读】刚刚,OpenAI超级对齐团队负责人官宣开源Transformer调试器。研究人员不用写代码,就能快速探索LLM的内部构造了!AGI真的越来越近了!为了确保人类不被AI杀死,在解密神经网络/Transfomer黑箱这一方面,OpenAI从未停下脚步。研究人员使用了了几个附加指标的组合:不过研究人员也表示,希望从Transformer上训练的稀疏自动编码器中,为字典学习解决方案确定更好的指标。
宾夕法尼亚大学、多伦多大学和Vector研究所的研究人员推出了一款名为DataDreamer的新工具。DataDreamer是一款综合解决方案,旨在简化和管理各种任务中的大语言模型的集成和利用。有了DataDreamer,研究人员有了一个强大的盟友,可以解决大语言模型的复杂性,开启新的可能性。
Allen人工智能研究机构在HuggingFace和GitHub上发布了首个开放语言模型OLMo,意在通过提供数据、代码、模型和评估工具的开放访问,促进人工智能领域的共同研究。这一举措的首批模型包括7B和1B规模的变体,覆盖不同架构和训练硬件,为未来更大规模、指令调整等模型的发布奠定基础。通过提供权重的开放访问,并鼓励合作,Allen致力于共同构建全球最卓越的开放语言模型,助力人工智能技术的进步。
开源大模型家族里,居然挤进来一位特别的选手:来自央企,身份为运营商。具体是谁?中国电信。对于本段提出的问题:为什么中国电信能做到央企中第一个发布大模型?答案也就情理之中了。
2023年的LLM开源社区都发生了什么?来自HuggingFace的研究员带你回顾并重新认识开源LLM2023年的大语言模型,让几乎所有人都燃起了热情。现在大多数人都知道LLM是什么,以及可以做什么。常用的方法包括bitsandbytes、GPTQ和AWQ。
Privado.ai,一家以开发者友好的隐私平台闻名的公司,推出了一款创新的开源LLM聊天应用MuroChat,旨在加强企业数据保护,解决LLM聊天机器人引入的数据隐私风险。这种基于大型语言模型的聊天机器人应用如ChatGPT等,为全球各行各业的专业人士提供了创作内容、生成想法、撰写电子邮件、生成代码等功能。Mahajan解释了开源MuroChat的想法:“在开发MuroChat的过程中,我们意识到许多�
OneLLM是一种多模态对齐的统一框架,它使用通用编码器和统一的投影模块与LLM对齐多模态输入。OneLLM还通过使用modalitytokens实现了在不同模态之间的切换。OneLLM在视频-文本、音频-视频-文本、音频-文本等任务中优于现有方法,表现出了较强的零样本能力。
巴黎的人工智能初创公司MistralAI宣布与GoogleCloud签署战略合作,实现了一次重大突破。根据双方的非独占性协议,MistralAI将利用GoogleCloud的AI优化基础设施分发其开源LLM及优化的专有语言模型。该公司旨在为企业开发新型的生成式人工智能模型,结合科学卓越、开源方法和对技术的社会责任感的愿景。
在众多开源的大型语言模型中,如LLaMA、Falcon和Mistral等,大多数仅公开了特定组件,如最终模型权重或推理脚本。技术文档通常集中在更广泛的设计方面和基本指标上,限制了该领域的进展,因为训练方法的清晰度不足,导致团队不断努力揭示训练过程的众多方面。如果您喜欢他们的工作,不要忘记加入MLSubReddit、Facebook社群、Discord频道和电子邮件通讯,以获取最新的AI研究新闻和有趣的AI项目。
开源模型在人工智能领域展现强大活力,但闭源策略限制了LLM的发展。邢波团队提出的LLM360全面开源倡议旨在解决这一问题。这一全面开源的趋势有望促进更多研究者的参与与合作,推动人工智能技术的不断创新。
LangChain正式开源全栈应用程序AnythingLLM,为用户提供了构建私有ChatGPT的便利。无论是使用商业的现成LLM是流行的开源LLM和VectorDB解决方案,您都可以轻松地在本地或远程托管中运行它,并智能地与提供的任何文档进行对话。文内引用和源链接:在聊天中提供文内引用,链接到原始文档源和文本,增加了对信息来源的可追溯性。
深度求索发布了一个67B的大模型,名为DeepSeekLLM67B。这个模型完全开源,可以通过访问chat.deepseek.com来使用。在开放域推理的测试中,DeepSeekLLM67B展现出了较好的表现。
英伟达最近宣布了NVIDIANeMoSteerLM技术作为英伟达NeMo框架的一部分。这项技术使用户能够在推断过程中控制大型语言模型的响应。这个新的开源数据集为开发人员提供了一个有用的工具,帮助他们更好地理解和应用NVIDIANeMo框架中的SteerLM技术。
TigerLab是一款开源的大型语言模型工具包,旨在构建定制化的语言模型应用程序。它填补了一般大型语言模型与为其提供上下文信息的数据存储之间的巨大差距。它提供了丰富的资源和示例,使开发者能够更好地利用大型语言模型来满足其具体的应用需求。
李开复是一位著名的计算机科学家,他以西方畅销书《AISuperpowers》和在中国对人工智能独角兽的投注闻名。他最近创办了一家名为01.AI的新公司,旨在满足中国市场对大型语言模型的需求。李开复的01.AI计划有望在未来获得成功,为中国市场带来创新和解决方案。
Haystack是一个端到端的自然语言处理框架,它能够帮助您构建由大型语言模型、Transformer模型、向量搜索等驱动的应用程序。无论您想要进行问题回答、答案生成、语义文档搜索是构建能够进行复杂决策和查询解决的工具,Haystack都可以帮助您使用最先进的NLP模型构建解决您的用例的端到端NLP应用程序。Haystack支持多种文档存储,包括ElasticSearch、Opensearch、Weaviate、Pinecone、FAISS等。
DreamLLM是一款强大的多模态大型语言模型学习框架,它首次实现了多模态理解和创作之间常常被忽视的协同效应。DreamLLM基于两个基本原则运作。图像生成:DreamLLM通过特殊的梦想令牌预测图像生成位置,生成与文本描述相关的图像,为用户提供强大的图像生成能力。
大型语言模型如GPT-4因其生成各种用户查询的文本响应的能力变得极为流行。尽管它们具有强大的功能,但在有效传达复杂信息方面存在一些限制。Graphologue代表了使LLM互动更直观和有效的重大进步。
LLMGuard是一个旨在增强大型语言模型安全性的开源工具包,旨在简化LLMs在企业中的安全采用。它的设计目的是为了轻松集成和部署在生产环境中,为LLMs的输入和输出提供广泛的评估,包括清理、检测有害语言和数据泄漏,以及防止注入和越狱攻击。这一工具包的推出将有望促进大型语言模型在企业中的更广泛应用,为企业提供了更好的安全保障和可控性,从更加自信地采用这一新兴技术。
大语言模型在改变人们的生活和职业方面影响越来越大,因为它们实现了编程助手和通用聊天机器人等新应用。这些应用的运行需要大量硬件加速器如GPU,操作成本非常高。更大的模型、更复杂的解码算法和更长的序列会导致更明显的改进。
floneum是一个面向本地AI和社区插件的图形化工作流编辑器。它提供了一个简单易用的图形界面,无需编程知识就可以组合和运行各种插件与本地AI模型。floneum是一个非常有前景的本地AI工作流编辑器,它简化了AI的使用流程,并增强了隐私保护和安全性。
声明:本文来自于微信公众号新智元,作者:桃子润,授权站长之家转载发布。【新智元导读】H100让模型推理性能最高跃升8倍!英伟达最新开源软件TensorRT-LLM,将彻底改变LLM推理现状。从更加宏观的角度,也许对于LLM来说,也会出现一系列的专门针对硬件级别的优化,甚至未来会出现专门针对LLM设计的硬件来提升LLM的性能,这种情况其实已经在很多流行的应用中出现过了,LLM也不会例外。
大语言模型微调中心是一个开源项目,它包含了大规模语言模型微调和部署的代码库以及相关研究成果。该项目由GeorgianPartners旗下的GeorgianIO团队开发,目的是帮助用户轻松地针对具体业务场景对各种LLM进行微调,并根据综合评估结果选择最适合的模型。该项目预计会持续迭代,支持越来越多前沿的LLM,并公开更多评估实验结果,以造福LLM领域的技术发展。
魔搭社区推出适配开源大语言模型的AIAgent开发框架ModelScope-Agent。ModelScope-Agent是一个通用的、可定制的Agent框架,用于实际应用程序,其基于开源的大语言模型作为核心,包含记忆控制、工具使用等模块。开源LLM主要负责任务规划、调度以及回复生成;记忆控制模块,主要包含知识检索以及prompt管理;工具使用模块,包含工具库以及工具检索和工具可定制化。
LangFuse是一种专门为低延迟消息应用设计的开源可观察性和分析解决方案。它的主要用途是用于生产环境,但也有一些用户在本地开发LLM应用时使用。主要功能:Langfuse提供了管理界面来探索引入的数据。
Pezzo是一个开源工具包,用于简化AI开发过程。开发者可以极简地统一管理AI操作流程、协作和prompt版本控制。它可以帮助团队和开发者优化机器学习操作流程,是建立可靠、高效的LLM应用的理想选择。