11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
AI招聘平台「智聘」获得无锡逆熵资本投资的数百万元种子轮融资。智聘「北京爱智聘数字科技有限公司」成立于2023年4月,是一家专注于人工智能技术开发、服务与咨询的数字科技公司。这款产品应用了最新的自研垂直大模型,通过人工智能和自然语言处理技术,为用户带来全新的简历生成和管理体验。
OpenRouter是一个创新性的项目,它为大语言模型和其他AI模型提供了一个统一的接口。通过这个接口,用户可以直接访问和使用几十种AI模型,包括GPT、LLama、Claude、Command-R等80多个模型,未来还将扩展到数百种。AI角色聊天和故事,更好的ChatGPT用户界面等功能,为用户带来全新的AI体验。
【新智元导读】AI训AI必将成为一大趋势。Meta和NYU团队提出让大模型「自我奖励」的方法,让Llama2一举击败GPT-40613、Claude2、GeminiPro领先模型。还有人表示「令人惊讶的是,每次迭代的改进几乎保持线性,仅在3次迭代之后,就已经接近GPT-4级别」。
开源大模型家族里,居然挤进来一位特别的选手:来自央企,身份为运营商。具体是谁?中国电信。对于本段提出的问题:为什么中国电信能做到央企中第一个发布大模型?答案也就情理之中了。
多模态大模型爆发,准备好进入图像编辑、自动驾驶和机器人技术等细粒度任务中实际应用了吗?目前大多数模型的能力还是局限于生成对整体图像或特定区域的文本描述,在像素级理解方面的能力相对有限。针对这个问题,一些工作开始探索借助多模态大模型来处理用户的分割指令。在三个benchmark的绝大多数指标上,PixelLM的性能均优于其他方法,且由于PixelLM不依赖于SAM,其TFLOPs远远低于同尺寸的模型。
原本需要一张16万元的80GA100干的活,现在只需要一张不到2万元的24G4090就够了!上海交大IPADS实验室推出的开源推理框架PowerInfer,让大模型推理速度加快了11倍。且不用量化,就用FP16精度,也能让40B模型在个人电脑上运行;如果加入量化,2080Ti也能流畅运行70B模型。现有的云端CPU也有强大的AMX计算单元支持,通过利用CPU、GPU间的异构特征,可以乐观地认为PowerInfer能够使用更少的高
开源模型在人工智能领域展现强大活力,但闭源策略限制了LLM的发展。邢波团队提出的LLM360全面开源倡议旨在解决这一问题。这一全面开源的趋势有望促进更多研究者的参与与合作,推动人工智能技术的不断创新。
阿里巴巴集团旗下研究机构达摩院推出了专为东南亚语言量身定制的人工智能大语言模型,凸显了该公司在更广泛地区发展市场的雄心。阿里巴巴研究部门表示,东南亚LLM在越南语、印度尼西亚语、泰语、马来语、高棉语、老挝语、他加禄语和缅甸语数据集上进行了预训练,并且在语言和安全任务方面优于其他开源模型。SeaLLM在英语和低资源语言之间的翻译也取得了更好的效果,如老挝语和高棉语。
为了拆开大模型的「黑箱」,Anthropic可解释性团队发表了一篇论文,讲述了他们通过训练一个新的模型去理解一个简单的模型的方法。Anthropic发表的一项研究声称能够看到了人工智能的灵魂。我们是否也在模拟一个更大的大脑?目前这还是一个非常新的研究领域,但已经有一些初步的发现,表明人类视觉皮层中的神经元确实以某种超定位的方式编码特征,与AI模型中观察到的模式相似。
深度求索发布了一个67B的大模型,名为DeepSeekLLM67B。这个模型完全开源,可以通过访问chat.deepseek.com来使用。在开放域推理的测试中,DeepSeekLLM67B展现出了较好的表现。
夸克,也下场大模型了。夸克大模型就迅速登顶权威测评双榜第一,幻觉率大幅降低,可以预见,风靡年轻人的夸克APP,要掀起新的飓风了。」随着自研大模型的全面升级,全新的夸克,必然会给我们带来全新的惊喜。
LeCun在推特上引发了关于大语言模型推理能力的讨论,强调LLM缺乏真正的规划推理能力,其涌现能力实际上是上下文学习的结果。研究通过多个实验验证LLM在复杂规划任务上表现不佳,强调其能力受限于任务复杂度。随着对LLM的研究的不断深入,对其真实能力的理解也在逐渐清晰,为未来自然语言处理研究方向提供了有价值的参考。
特斯拉前AI总监AndrejKarpathy的新教程火了。他专门面向普通大众做了一个关于大语言模型的科普视频。目前这些攻击方式已经陆续被修复,但只是揭开了大模型越狱方法的冰山一角,这场“猫鼠游戏”还将持续进行。
大模型浪潮正在重构千行百业。可以预见的是,随着技术的不断进步以及应用场景的不断扩展,基于大模型的AI应用将会不断涌现,并成为推动AI产业发展的重要力量。曾在腾讯云CODINGDevOps团队负责产品及运营管理工作,服务超百万开发者用户的平台产品。
给Llama2大模型剪一剪驼毛,会有怎样的效果呢?今天普林斯顿大学陈丹琦团队提出了一种名为LLM-Shearing的大模型剪枝法,可以用很小的计算量和成本实现优于同等规模模型的性能。自大型语言模型出现以来,它们便在各种自然语言任务上取得了显著的效果。更多研究细节,可参考原论文。
陈丹琦团队近期发布了一项重要的研究成果,他们开发了一种名为LLM-Shearing的大模型剪枝法。这项技术允许将庞大的预训练模型剪枝至仅需3%的计算量和5%的成本,同时保持着SOTA水平的性能。这有望在大规模深度学习模型的研究和应用中产生广泛的影响。
大语言模型黑盒,居然被CMU等机构的学者打破了?他们发现,LLM内部有可解释的表征,如果撒谎能被测谎仪检测出来!最近,来自CAIS、CMU、斯坦福、康奈尔、马里兰、宾大等机构的学者又有了令人震惊的发现——大语言模型,并不仅仅是黑匣子,或者难以理解的庞大矩阵。在它们内部,具有可解释的内部表征。CMU等机构研究者的探索也告诉我们,人类对于AI系统的理解和控制会越
DeepEval是一个用于对语言模型应用进行评估和单元测试的框架。它提供了各种指标,可以测试语言模型应用生成的回复在相关性、一致性、无偏见性和无毒性等方面的表现。如果你在开发聊天机器人、语言模型应用,DeepEval绝对是一个提高工程效率的好帮手。
一家仅成立两个月的大湾区初创公司共生矩阵,凭借自主研发的大模型GS-LLM-Beta在权威的中文基础模型评估指数C-Eval上击败多个行业巨头,杀入前三甲。共生矩阵的突出表现得益于团队成员过硬的算法积累。我们期待他们带来更多技术突破,推动这个领域的进步。
清华系面壁智能联合多个研究机构推出ToolLLM工具学习框架,加入OpenBMB大模型工具体系。ToolLLM框架通过构建高质量的工具学习指令微调数据集ToolBench,训练出具备工具使用能力的ToolLLaMA模型,并通过ToolEval自动评估工具学习性能。特点:1.强大的语言理解和生成能力;2.能够处理复杂任务,具有较高的推理能力;3.可通过插件功能与外部工具进行交互,扩展其应用范围;4.具备泛化能力
ChatGPT能力解禁是加入插件功能后,性能得到了强化。所有大模型皆是如此。BMTools工具包也已集成最近爆火的Auto-GPT与BabyAGI。
只需一个浏览器,就能跑通“大力出奇迹”的大语言模型了!不仅如此,基于LLM的类ChatGPT也能引进来还是不需要服务器支持、WebGPU加速的那种。例如这样:这就是由陈天奇团队最新发布的项目——Web+LLM。MLC.AI+社区成立于2022年6月,并由+Apache+TVM+主要发明者、机器学习领域著名的青年学者陈天奇,带领团队上线了+MLC+线上课程,系统介绍了机器学习编译的关键元素以及核心概念。
大型语言模型往往会追求更长的「上下文窗口」,但由于微调成本高、长文本稀缺以及新token位置引入的灾难值等问题,目前模型的上下文窗口大多不超过128k个token最近,MicrosoftResearch的研究人员提出了一个新模型LongRoPE,首次将预训练LLM的上下文窗口扩展到了2048k个token,在256k的训练长度下只需要1000个微调步骤即可,同时还能保持原始短上下文窗口的性能。论文链接:https://arxiv
微软研究人员提出的LongRoPE方法首次将预训练的大型语言模型的上下文窗口扩展至2048k个token,实现了8倍的扩展同时保持原始短上下文窗口的性能无需进行架构变化和复杂微调。该方法的关键创新点包括通过高效搜索识别并利用了位置插值中的两种非均匀性,为微调提供更好的初始化,并在非微调情况下实现了8倍扩展;引入了渐进扩展策略,首先微调256k长度的LLM,然后在微调扩�
InternVL家族的开源套件提供了一种商用多模态模型的可行开源替代方案。最新发布的InternVL-Chat-V1.5模型在多个基准测试上取得了接近GPT-4V和GeminiPro的性能,这使得InternVL家族成为了当前最接近GPT-4V表现的可商用开源模型之一。InternVL家族的开源套件为多模态模型领域的发展注入了新的活力。
GPT-4又又又被超越了!近日,LLM竞技场更新了战报,人们震惊地发现:居然有一个开源模型干掉了GPT-4!这就是Cohere在一周多前才发布的CommandR。排行榜地址:https://huggingface.co/spaces/lmsys/chatbot-arena-leaderboard截至小编码字的这个时间,竞技场排行榜更新到了4月11号,CommandR拿到了2.3万的投票,综合得分超越了早期版本的GPT-4,和GPT-4-0314版本并列第7位,——它可是一个开源模型。2024年,在开源和闭源两条道路上,LLM都发展迅猛。
【新智元导读】大模型混战究竟谁才是实力选手?清华对国内外14个LLM做了最全面的综合能力测评,其中GPT-4、Cluade3是当之无愧的王牌在国内GLM-4、文心4.0已然闯入了第一梯队。在2023年的「百模大战」中,众多实践者推出了各类模型,这些模型有的是原创的,有的是针对开源模型进行微调的;有些是通用的,有些则是行业特定的。●偏见歧视:文心一言4.0继续排名榜首,领先GPT-4系�
HuggingFace发布了一项名为OpenMedical-LLM的新基准测试,旨在评估生成式人工智能模型在健康相关任务上的表现。该基准由HuggingFace与非营利组织OpenLifeScienceAI和爱丁堡大学自然语言处理小组的研究人员合作创建。测试生成式人工智能工具在实验室中的性能如何转化为医院和门诊诊所的实际情况,以及这些结果可能随时间变化的趋势,都是异常困难的。
【新智元导读】Anthropic发布最新研究,发现Claude3Opus的说服力与人类大致相当,该成果在评估语言模型说服力方面迈出了重要的一步。人工智能模型在对话说服力方面表现如何?对这一问题大家可能都心存疑惑。Anthropic也表示,他们已经采取了一系列措施来降低Claude被用于破坏性事件的风险。
苹果公司近日发布了一款名为MLLLLMFerret-UI的新型机器学习语言模型,旨在提升对移动应用用户界面的理解。这款模型经过特别优化,能够处理移动UI屏幕上的各种任务,并具备指向、定位和推理等能力。Ferret-UI还能够通过功能推断来解释屏幕的整体目的,显示出在理解和生成自然语言指令方面的高级能力。