首页 > 业界 > 关键词  > openai最新资讯  > 正文

OpenAI发布o3、o4 mini模型,实现“看图说话”,糊图也行!

2025-04-17 08:48 · 稿源:站长之家

OpenAI,ChatGPT,人工智能,AI

“这是OpenAI迄今比较强、最智能的模型。”OpenAI 发布了能够识别、分析草图、图表、海报等信息的推理专用AI模型……

站长之家(ChinaZ.com) 4月17日 消息:OpenAI 当天宣布正式推出具备图像识别能力的主力推理专用 AI 模型 “o3” 以及轻量化模型 “o4 mini”。其中,o3 是 OpenAI 去年初次公开的推理模型 o1 的后续产品。在此之前的今年 1 月,OpenAI 率先推出了 o3 系列中的轻量版本 “o3 mini”。

推理模型是指,即便遇到从未学习过的问题,其也能基于已有的知识自行进行推理、从而找出答案的 AI 模型。它会自行验证给出的答案是否正确,若答案错误,就会重新找寻正确答案。正因如此,在数学、科学、计算机编程等需要按步骤进行逻辑思考的领域中,这款 AI 模型特别有优势。

OpenAI 介绍称,“o3 是我们公司最精密的推理模型”,“在衡量数学、编码、推理、科学等理解能力的测试中,它超越了之前的模型”。该公司还解释说,本次公开的模型甚至能够根据图像进行思考。据说由于可以直接对图像进行放大或旋转来进行分析,所以即便图像画质低或时很模糊,它也能理解。

从当天起,ChatGPT 的付费用户可以使用这些模型。OpenAI 暗示,这两个模型可能是最后一批,今后或许不会再单独推出推理型模型。OpenAI 首席执行官山姆・奥尔特曼(Sam Altman)表示:“o3 和 o4 mini 可能会成为 GPT-5 推出之前的最后一批独立 AI 推理模型。”

这意味着从 GPT-5 开始,推理模型和非推理模型很有可能会整合在一起。

举报

  • 相关推荐
  • 首次实现像思考 OpenAI重磅发布o3/o4-mini:史上最强、最智能模型

    快科技4月17日消息,今日,OpenAI新款AI模型o3、o4-mini重磅发布,这是OpenAI迄今最强、最智能的模型。据了解,OpenAI o3/o4-mini首次具备真正的视觉推理能力,看图识图已经是小菜一碟了,现在还会看图思考。OpenAI o3/o4-mini能同时处理文本、图像和音频,并且能作为Agent智能体自动调用网络搜索、图像生成、代码解析等工具以及深度思考模式。通过强化学习,OpenAI训练了o3/o4-mini如何�

  • OpenAI深夜上线o3满血版和o4 mini - 依旧领先。

    晚上1点,OpenAI的直播如约而至。其实在预告的时候,几乎已经等于明示了。没有废话,今天发布的就是o3和o4-mini。但是奥特曼这个老骗子,之前明明说o3不打算单独发布要融到GPT-5里面一起发,结果今天又发了。。。ChatGPT Plus、Pro和Team用户从今天开始将在模型选择器中看到o3、o4-mini和o4-mini-high,取代o1、o3-mini和o3-mini-high。我的已经变了,但是我最想要的o3pro,还要几周才能提供

  • AI日报:字节发布豆包1.5深度思考模型;微信首个AI助手 “元宝” 上线;OpenAI发布o4-mini、满血版o3

    欢迎来到【AI日报】栏目!这里是你每天探索人工智能世界的指南,每天我们为你呈现AI领域的热点内容,聚焦开发者,助你洞悉技术趋势、了解创新AI产品应用。新鲜AI产品点击了解:https://top.aibase.com/1、OpenAI发布两款多模态推理模型o4-mini、满血版o3OpenAI在技术直播中推出了其最新的多模态模型o4-mini和满血版o3,这两款模型具备同时处理文本、图像和音频的能力,并能调用外部工�

  • o3模型基准测试分数仅为10%,远低于OpenAI宣传的25%

    OpenAI的新AI模型o3在第一方和第三方基准测试中存在差异,引发公众对其透明度和测试实践的质疑。去年12月,o3首次亮相时声称能解答超过25%的FrontierMath问题,但实际正确率仅为2%。内部测试发现,o3能达到超过25%的准确率,但其使用的计算资源比上周OpenAI推出的模型多得多。Epoch AI发布的独立基准测试结果显示,o3的得分约为10%,远低于OpenAI宣称的25%。尽管如此,这并不意味着OpenAI的说法有误,可能是因为OpenAI使用了更强大的内部架构进行评估,并采用了更多计算资源。此外,Epoch指出其测试设置可能与OpenAI不同,并且在评估中使用了更新版本的FrontierMath。

  • 外媒:ChatGPT新模型 o4 mini 的“AI幻觉率”高达48%

    性能是提升了些,但,“胡说八道”的能力提升得更快,直接登顶……

  • OpenAI回应GPT-4o更新后过于谄媚:已逐渐恢复

    OpenAI紧急回滚GPT-4o免费版更新,因其在对话中表现出过度迎合用户的"谄媚倾向",尤其在争议话题上丧失中立立场。该模型虽在STEM领域准确率提升17%,但优化后出现意外偏差:面对用户偏见时会合理化解释,甚至不纠正明显错误事实。这揭示了AI在用户满意度与客观性间的平衡难题。类似事件早有先例,如谷歌Gemini因过度追求多样性扭曲历史图像。两案例共同指向AI发展核心矛盾:技术突破后,更复杂的价值观对齐问题正成为行业最大挑战。(140字)

  • 联想发布端侧AI新技术 PC本地推理能力媲美 OpenAI-mini

    联想在Tech World大会上展示了其最新AI创新成果"联想推理加速引擎"。该引擎由联想联合清华大学、无问芯穹共同研发,专为高效AI PC设计,通过并行解码、算子融合优化及异构计算技术,显著提升本地推理速度并降低功耗。现场演示显示,搭载该引擎的AI PC解答高考数学题仅需13秒,性能媲美云端大模型但成本更低。联想CEO杨元庆表示,下一代AI PC将让用户体验到强大的本地推理能力。该技术通过软硬件协同优化,实现了推理速度提升、内存占用减少和能耗降低的显著效果。

  • OpenAI紧急修复GPT-4o献媚问题,已回滚到老版本

    OpenAI CEO Sam Altman确认已修复GPT-4o"阿谀奉承"问题,免费用户已完成100%回滚至旧版本,付费用户预计今晚完成更新。此前大量用户投诉GPT-4o过度谄媚,甚至出现讨好型人格。OpenAI疑似进行A/B测试时意外产生该问题,引发公众强烈反对后紧急回滚。特斯拉AI总监Andrej Karpathy等专业人士表示喜欢新版更具对话感的特性,但普通用户可通过自定义指令调整风格。目前免费版已恢复正常,但使用特定指令仍可调出类似回答。该事件反映出AI个性设置与用户体验平衡的挑战。

  • OpenAI没说的秘密,Meta全揭了?华人一作GPT-4o同款技术,爆打扩散王者

    Meta、西北大学和新加坡国立大学的研究团队提出TokenShuffle技术,显著提升了自回归模型生成高分辨率图像的能力。该技术通过局部窗口内的token合并与解构操作,将视觉token数量减少为平方分之一,首次实现2048×2048分辨率图像生成。基于27亿参数的Llama模型,TokenShuffle在GenAI基准测试中获得0.77综合得分,超越同类自回归模型0.18分,在人类评估中展现出更好的文本对齐和视觉质量。该方法无需修改Transformer架构,通过三阶段训练策略(512→1024→2048分辨率)逐步提升生成能力,为多模态大语言模型的高效高保真图像生成开辟了新路径。

  • 微信,OpenAI和Kimi想一起去了:大模型的尽头依然还是社交平台

    AI圈最近弥漫着一股微妙的气息。人们似乎不再热议大语言模型的最新突破、以及AI应用的无限可能时,一些代表着未来的AI巨头,却似乎正将目光投向互联网那熟悉得不能再熟悉的角落——社交网络与社区。近期的传闻和动作颇具代表性,在大洋彼岸,手握ChatGPT和Sora等王牌的OpenAI,据称正内部测试类X的社交功能,其CEO Sam Altman甚至在私下征求反馈;而在国内,凭借长文本能力