11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
香港智能有限公司(HKIT)与WALLX公司合作,将AI技术与心理治疗相结合,开发出基于区块链的奖励和参与模式。该创新系统能精准评估用户心理状态并提供个性化治疗方案,同时利用区块链确保数据安全。双方还推出奖励机制,用户参与心理课程或贡献数据可获得,用于兑换咨询服务或健康产品。这一模式获得市场广泛关注,多家机构表达合作意向,被视为心理健康服�
UC伯克利和艾伦实验室的最新研究表明,推理模型无需依赖冗长的思考过程也能有效工作。研究人员提出的"无思考(NoThinking)"方法通过简单提示直接生成解决方案,跳过了传统推理模型中的显性思考步骤。实验证明,在低资源(低token数量、少模型参数)或低延迟情况下,NoThinking方法的表现优于传统思考方式,能减少token使用量并提高推理速度。该方法在数学问题解决、编程和形式定理证明等任务中表现优异,尤其在资源受限时优势更明显。研究还发现,结合并行计算扩展后,NoThinking能进一步提升性能,在保持准确性的同时显著降低延迟和计算成本。这一发现挑战了"推理模型必须依赖详细思考过程"的传统认知。
OpenAI公司今天在X平台发布推文,宣布面向免费和付费用户更新o3-mini的思维链。OpenAI为付费用户更新o3-mini-high的思维链,更透明、更详细地展示模型的推理”步骤以及得出答案的方式。尤为值得一提的是,o3模型在ARC-AGI测试中取得了历史性突破,首次跨越人类水平门槛,以87.5%的优异成绩,标志着OpenAI在通往实现人工通用智能的征途中又迈出了坚实的一步。
【新智元导读】非营利研究机构AI2近日推出的完全开放模型OLMo2,在同等大小模型中取得了最优性能,且该模型不止开放权重十分大方地公开了训练数据和方法。非营利研究机构AI2上新了OLMo2系列模型,他们称之为「迄今为止最好的完全开源模型」。在这个生态系统中,新的训练方法和技术需要被理解和分享。
今日,阿里云通义开源全新的数学推理过程奖励模型Qwen2.5-Math-PRM,72B及7B尺寸模型性能均大幅超越同类开源过程奖励模型。在识别推理错误步骤能力上,Qwen2.5-Math-PRM以7B的小尺寸超越了GPT-4o。这证明了过程奖励模型能够显著提高推理的可靠性,为未来开发推理过程监督技术开辟了新的途径。
随着ChatGPT等产品的广泛应用,确保其输出的安全性成为场景化落地的关键。传统方法是使用RLHF来进行安全对齐,但有两大局限性难以持续使用。在内部安全评估中,RBR训练的模型在安全性和过度拒绝指标上表现出色,F1分数达到97.1,高于人类反馈基线的91.7和有助益基线的95.8。
苹果最新杀入开源大模型战场比其他公司更开放。推出7B模型,不仅效果与Llama38B相当一次性开源了全部训练过程和资源。就像他提供的这张图,以GPT-4omini为代表的小模型整体比右侧价格更低。
大型语言模型的成功离不开「基于人类反馈的强化学习」。RLHF可以大致可以分为两个阶段,首先,给定一对偏好和不偏好的行为,训练一个奖励模型,通过分类目标为前者分配更高的分数。该研究从多个维度将SPO与迭代奖励建模方法进行比较,旨在回答4个问题:当面intransitive偏好时,SPO能否计算MW?在具有独特CopelandWinners/最优策略的问题上,SPO能否匹配或超过RM样本效率?SPO对随机偏好的稳健性如何?SPO可以处理非马尔可夫偏好吗?在最大奖励偏好、噪声偏好、非马尔可夫偏好方面,该研究的实验结果分别如下图6、7、8所示:感兴趣的读者可以阅读论文原文,了解更多研究内容。
语言模型一直是自然语言处理技术的核心,考虑到模型背后的巨大商业价值,最大最先进的模型的技术细节都是不公开的。真·完全开源的大模型来了!来自艾伦人工智能研究所、华盛顿大学、耶鲁大学、纽约大学和卡内基梅隆大学的研究人员,联合发表了一项足以载入AI开源社区史册的工作——他们几乎将从零开始训练一个大模型过程中的一切数据和资料都开源了!论文:https://allenai.org/olmo/olmo-paper.pdf权重:https://huggingface.co/allenai/OLMo-7B代码:https://github.com/allenai/OLMo数据:https://huggingface.co/datasets/allenai/dolma评估:https://github.com/allenai/OLMo-Eval适配:https://github.com/allenai/open-instruct具体来说,艾伦人工智能研究所推出的这个开放大语言模型实验和训练平台,则提供了一个完全开源的大模型,以及所有和训练开发这个模型有关的数据和技术细节——训练和建模:它包括完整的模型权重、训练代码、训练日志、消融研究、训练指标和推理代码。她对机器学习的技术和认知科学的理论的融合应用充满了热情。
【新智元导读】AI训AI必将成为一大趋势。Meta和NYU团队提出让大模型「自我奖励」的方法,让Llama2一举击败GPT-40613、Claude2、GeminiPro领先模型。还有人表示「令人惊讶的是,每次迭代的改进几乎保持线性,仅在3次迭代之后,就已经接近GPT-4级别」。