首页 > 业界 > 关键词  > 苹果AI最新资讯  > 正文

苹果 AI 太落伍?他们需要从对手那里“复制”这三个功能

2025-05-16 18:05 · 稿源:站长之家

图片.png

回顾苹果在去年的 WWDC 上承诺推出的一系列 AI 功能,一年过去了,苹果似乎比去年 6 月时还要更加落后于竞争对手了。

说苹果的“Apple Intelligence”计划发布得一团糟,实在算是轻描淡写。不过,我仍然抱有希望:再过几周,我们或许能看到一些新的功能(或者至少是某种战略方向),能让人感觉苹果还有机会迎头赶上。

1:谷歌的 Notebook LM

图片.png

谷歌的 Notebook LM 支持自定义指令,最近还加入了多语言功能,其中的“音频摘要(Audio Overviews)”功能已经成为我阅读复杂的机器学习论文时不可或缺的一部分。

每次用这个功能时,我都会想,如果 Safari 有一个类似的内建音频概览功能该多好啊(或者 Apple Notes 能整合类似 Notebook LM 的功能也不错)。

从自动生成每天的“稍后阅读”音频摘要,到快速朗读 Safari 当前页面内容的智能概览,其实,苹果有大量机会在浏览器中加入比简单总结工具更智能的 AI 能力。

2:Anthropic 的 MCP(模型上下文协议)

Claude2,Anthropic,人工智能,聊天机器人 
 克劳德

去年,Anthropic 发布了“Model Context Protocol(MCP)”,这是一个开放标准协议,能让大型语言模型(LLM)通过统一接口安全、无缝地与外部工具、API 和平台互动。

你可以看到 Claude(Anthropic 的AI)直接与 Blender 配合,根据用户指令创建 3D 场景。

如今,OpenAI、Zapier、Google DeepMind、Replit、微软、Block 等众多企业都已支持 MCP,它有望成为类似于 Web 的 HTTPS 或数据库的 SQL 那样的平台级标准。

考虑到苹果早已有 Siri Intents 和 Shortcuts 框架,我们更有可能在下个月看到苹果推出自家版本的 MCP 协议,而不是直接采用 MCP。

但不管怎样,这种功能将对用户极为有利。比如,哪怕只是让 Siri 帮你从 Pages 文档生成一整套 Keynote 演示文稿,对很多用户尤其是依赖无障碍工具的人来说,这种功能简直像科幻一样。

3:OpenAI 的屏幕共享

图片.png

目前,苹果推出了“视觉智能(Visual Intelligence)”功能,用户可以长按图片进行操作,比如查找餐厅详情、翻译文字、总结信息、朗读文本、识别植物和动物等。

但它依然缺乏一个关键功能 —— ChatGPT 用户从去年就能使用的“屏幕/视频共享”。

虽然将通过照片实现的“视觉智能”也是有帮助的,但相比于打开相机实时讲解或与 ChatGPT 对话分析手机屏幕内容,苹果这种“拍照后处理”的工作流就显得有点“原始”了。

试想一下,在点餐时翻菜单、用 ChatGPT 询问过敏原的建议,你就能体会这种实时交互的强大。

虽然这几年大家对 AI 的讨论不断,但现实是,大多数普通用户依然停留于在 ChatGPT 上随意输入几条提示的程度,完全不知道这些 AI 技术该怎么真正融入日常生活。

要让 AI 真正变得有用,关键在于让它出现在用户所处的“场景”里,而不是强迫他们在不同 App 之间来回切换。当然,这其中很多功能可能涉及服务端对敏感数据的处理 —— 但这本就是产品开发的一部分。

只要用户知道系统在做什么,他们就有权选择要不要使用某个功能。相反,因为“隐私挑战”就放弃开发这些功能,已经不再是一个可行的选项。

你最希望苹果在 iPhone 或 Mac 上原生支持哪些其他 AI 功能呢?

举报

  • 相关推荐