首页 > 业界 > 关键词  > Baichuan2最新资讯  > 正文

幻觉处理国内!530亿参数Baichuan2推理能力飙升100%,开放API商用

2023-09-26 11:57 · 稿源: 新智元公众号

【新智元导读】昨天,Baichuan2-53B正式发布!首次开放API,意味着百川大模型开始正式进军商用了。另外,模型的数学和逻辑推理能力都大幅飙升,对于幻觉的处理,已经在国内遥遥领先。百川大模型,昨日全面升级!就在9月25日,百川智能正式发布了全新升级的530亿参数大模型——Baichu

......

本文由站长之家合作伙伴自媒体作者“新智元公众号”授权发布于站长之家平台,本平台仅提供信息索引服务。由于内容发布时间超过平台更新维护时间,为了保证文章信息的及时性,内容观点的准确性,平台将不提供完全的内容展现,本页面内容仅为平台搜索索引使用。需阅读完整内容的用户,请查看原文,获取内容详情。

举报

  • 相关推荐
  • 百川智能发布闭源大模型Baichuan2-53B开放API

    百川智能发布了闭源大模型Baichuan2-53B,该模型全面升级了Baichuan1-53B的各项能力。Baichuan2-53B在数学和逻辑推理能力上表现出显著的提升,并且通过高质量数据体系和搜索增强的方法极大降低了模型幻觉,是目前国内幻觉问题最低的大模型。企业和开发者可以通过API将Baichuan2-53B集成到他们的应用程序和服务中。

  • 超13万个大模型!微软增强ChatGPT等开源模型,训练、推理能力

    著名AI模型开源平台HuggingFace上有超过320,000个大模型,并且每天保持高速增长。据统计只有大约6,000个模型支持ONNX格式,但微软表示,实际上有超过130,000个模型支持该格式。在HuggingFace开源平台上还有10万个模型不支持ONNX格式,鼓励更多的技术研究机构、开源项目加入到ONNX社区,以通过ONNXRuntime增强开发效率。

  • ToRA:融合自然语言推理与外部工具 数学推理能力增强

    随着大型语言模型的出现,人工智能和数学问题求解领域取得了显著进展。这些模型在面对复杂的数学挑战时仍然存在问题。对工具交互的优势和挑战进行的全面分析为未来的研究提供了重要见解,有望开发更先进和适应性更强的推理代理。

  • 国产大模型推理能力已超GPT-3.5!冲进OpenAI评测榜第一梯队

    OpenAI开源的数学数据集,中国厂商新成绩一举冲到最前列!就在9月16日,国产大模型在权威推理评测集GSM8K中,首次达到了80%正确率,大幅领先GPT-3.5和LLaMA2-70B。且这家厂商在大模型榜单上刷新全球纪录,已经不是第一次了。可以不夸张地说一句,昆仑万维和它家的天工大模型,已经是大模型江湖中,一个绕不过去的狠角色了。

  • 昆仑万维:天工大模型推理能力超过GPT-3.5和LLaMA2

    昆仑万维表示,其自研的天工大模型在BenchmarkGSM8K测试中取得了80%的正确率,超过了GPT-3.5和LLaMA2-70B,达到了全球领先水平,接近于GPT-4。天工大模型还在MMLU、C-EVAL、HumanEval等多个数据集上表现出色,准确率均高于其他主流大模型。天工大模型目前仍处于内测阶段,将持续提升技术实力,为用户和企业提供强大的智能化助力。

  • 正面硬刚GPT-4V!浙大校友开源多模态大模型LLaVA-1.5,130亿参数8个A100一天训完

    【新智元导读】GPT-4V风头正盛,LLaVA-1.5就来踢馆了!它不仅在11个基准测试上都实现了SOTA13B模型的训练,只用8个A100就可以在1天内完成。9月底,OpenAI宣布ChatGPT多模态能力解禁。他的研究方向是可控的多模态图像生成与处理,以及其他与创意视觉相关的问题。

  • AI视野:王小川发布新大模型Baichuan53B;必应免费向用户提供DALL-E3;文心一言将再次升级

    王小川团队发布新的53B大模型,这是继Baichuan-7B和Baichuan-13B之后他们的第三个大模型产品,但与前两款不同,这次选择闭源。开放模型权重被指将导致AI失控,Meta遭举牌抗议AI领域开源与闭源选择存在分歧,但大模型时代开源力量崛起,Meta因开源陷入麻烦,抗议者质疑开放模型权重安全性,LeCun则表态开源AI不可阻挡。项目地址:https://github.com/eric-ai-lab/minigpt-5轻量级代码库分析工

  • 比GPT-4还强,20亿参数模型做算术题,准确率几乎100%

    大型语言模型在处理NLP领域的各种下游任务方面已经表现出卓越的能力。GPT-4、ChatGPT等开创性模型已经接受了大量文本数据的训练,使它们具备强大的文本理解和生成能力,能够生成连贯且上下文相关的响应,在各种NLP任务中具有高度通用性。为了评估模型在不同年级数学问题上的解决能力,该研究在K6数据集上测试评估了几种模型的性能,包括:GPT-4、ChatGPT、Chinese-Alpaca-13B、MOSS-16B、Ziya-LLaMA-13B、Baichuan-7B、ChatGLM-6B、ChatGLM2-6B和MathGLM-GLM-10B,结果如下图8所示。

  • 国产OLED平板8月畅销100.2万台 销售额30.5亿

    根据洛图科技发布的最新报告,中国智能平板线上市场在2023年8月份的销量达到100.2万台,同比增长18.5%,环比增长10.6%;销售额为30.5亿元,同比增长14.7%,环比增长11.7%。该报告分析认为,8月份市场销量的攀升受到了主流品牌新品起量和开学前的促销活动的推动。洛图科技的分析师刘倩认为,华为领先苹果率先布局柔性OLED技术,在强化其在国内市场的品牌影响力的同时,也有望带动OLED技术在智能平板市场的进一步普及。

  • 微软推出全新预训练模型phi-1.5 仅13亿参数常识推理碾压Llama2

    微软研究人员最近在一篇论文中提出了一个新的语言模型Phi-1.5,该模型的参数量仅有13亿。研究人员主要关注Phi-1.5在常识推理方面的表现,因为这是对语言模型能力的重要考验。本研究表明,相比单纯追求模型规模,如何获取高质量训练数据可能更为重要,这为未来语言模型研究提供了新的思路。