11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
JetMoE-8B是一款采用稀疏激活架构的人工智能模型,其性能卓越且训练成本不到10万美元,令人惊讶的是,它的表现甚至超越了LLaMA2-7B、LLaMA-13B和DeepseekMoE-16B。JetMoE-8B由24个块组成,每个块包含两个MoE层:注意力头混合和MLP专家混合。这不仅证明了其在性能上的优势,也展示了其在成本效益上的显著优势。
3月28日,著名数据和AI平台Databricks在官网正式开源大模型——DBRX。DBRX是一个专家混合模型有1320亿参数,能生成文本/代码、数学推理等,有基础和微调两种模型。Databricks主要提数据智能分析服务,帮助企业、个人用户快速挖掘数据的商业价值。
马斯克宣布将在本周开源由xAI旗下公司推出的生成式AI产品——Grok。这款类ChatGPT产品于去年11月首次亮相,针对生成文本、代码、邮件和信息检索等多个领域提供功能。以上内容参考xAI官网,如有侵权请联系删除。
李开复的Yi-34B-Chat模型在多个评测中大放异彩。其94.08%的胜率超越了LLaMA2和ChatGPT等主流大模型,尤其在加州大学伯克利分校主导的LMSYSORG排行榜中,以1102的Elo评分追平了GPT-3.5。这一系列的成绩和问题共同勾勒出Yi-34B-Chat模型的成功轨迹,尽管受到一些质疑,但其在技术创新和用户体验方面的表现仍然备受瞩目。
仅次于GPT-4,李开复零一万物Yi-34B-Chat最新成绩公布——在Alpaca经认证的模型类别中,以94.08%的胜率,超越LLaMA2Chat70B、Claude2、ChatGPT!不仅如此,在加州大学伯克利分校主导的LMSYSORG排行榜中,Yi-34B-Chat也以1102的Elo评分,晋升最新开源SOTA开源模型之列,性能表现追平GPT-3.5。在五花八门的大模型评测中,伯克利LMSYSORG排行榜采用了一个最为接近用户体感的“聊天机器人竞技场”特殊测评模式,让众多大语言模型在评测平台随机进行一对一battle,通过众筹真实用户来进行线上实时盲测和匿名投票,11月份经25000的真实用户投票总数计算了20个大模型的总得分。”现在,Eric已经成为Yi-34B的忠实拥趸,会使用Yi-34b-200k数据集训练其他的模型产品,并感叹丝滑般的训练体验。
复旦大学和上海人工智能实验室的研究团队在一项新研究中,揭示了一项引人注目的发现:他们能够通过微调一个关键的RoPE位置编码中的超参数,显著扩展大型模型的上下文长度,从1.6万tokens延长至100万tokens,同时提升外推能力。这个超参数被称为旋转角底数,在RoPE位置编码中起着关键作用。这一规律的发现将有望进一步改善大型模型在自然语言处理等领域的性能,并提供更多应用潜力。
从头预训练大模型被认为需要高达5000万美元的投资,这让很多开发者和中小企业望却步。Colossal-LLaMA-2的出现降低了大模型的门槛。该方案业已应用到多个行业领域,构建垂类大模型并取得良好效果。
训练大模型,几千块就能实现了!现在,15小时、几千块钱、85亿token数据,即可训出中文LLaMA2。综合性能达到开源社区同规模从头预训练SOTA模型水平。更多应用场景、不同领域、不同版本的模型、企业私有化平台部署等正不断迭代。
昆仑万维表示,其自研的天工大模型在BenchmarkGSM8K测试中取得了80%的正确率,超过了GPT-3.5和LLaMA2-70B,达到了全球领先水平,接近于GPT-4。天工大模型还在MMLU、C-EVAL、HumanEval等多个数据集上表现出色,准确率均高于其他主流大模型。天工大模型目前仍处于内测阶段,将持续提升技术实力,为用户和企业提供强大的智能化助力。
图源备注:图片由AI生成,图片授权服务商Midjourney回想两个月前,LLaMA2的开源,曾以一己之力改变了大模型领域的竞争格局。相比于今年2月推出的第一代LLaMA,LLaMA2在推理、编码、精通性和知识测试等任务中都实现了性能的大幅提升,甚至可以在某些数据集上接近GPT-3.5。如何让大模型的能力与业务场景更好结合,同样是当下每一家大模型提供商的重点课题,也需要科技公司、学术机构和开发者共同创造。