首页 > AI头条  > 正文

Google升级Search Live模式:语音+摄像头更智能的实时交互

2025-06-19 09:35 · 来源: AIbase基地

Google正计划进一步升级Search Live 模式,作为其 AI Mode 搜索功能的一部分,并宣布将在未来数月内进一步升级该模式,引入更多创新功能。根据最新网络信息,Google 计划通过整合 实时摄像头交互 和 个性化搜索体验,将 Search Live 打造为更直观、交互性更强的 AI 搜索工具。以下由 AIbase 编辑部整理报道,深入剖析 Search Live 模式的当前进展、未来升级计划及对用户和行业的潜在影响。

Search Live 模式:语音交互的突破

Google 于2025年 Google I/O 大会上首次展示了 Search Live 模式,并于6月18日在美国正式推出,面向参与 AI Mode 实验(Google Labs)的 Android 和 iOS 用户。Search Live 允许用户通过语音与 Google 搜索进行 实时、双向对话,类似于 Gemini Live 的交互体验。用户只需在 Google 应用中点击“Live”图标(位于搜索栏下方,显示为波形加星标),即可开始语音提问,AI 将以 生成式音频 回应,同时在屏幕上显示相关网页链接,方便用户深入探索。

image.png

当前功能亮点包括:  

自然对话:支持连续问答,用户可随时打断 AI 语音响应,提出后续问题,例如询问旅行打包技巧后,进一步 уточнить 如何处理衣物褶皱。  

多任务支持:Search Live 可在后台运行,用户在切换至其他应用(如邮件或社交媒体)时仍能继续对话。  

会话历史:通过 AI Mode 历史记录,用户可随时回顾之前的 Search Live 会话。  

语音选项:提供 Cosmo、Neso、Terra 和 Cassini 四种语音风格,增强个性化体验。  

Search Live 基于定制版 Gemini 模型,结合 Google 的 查询扇出技术(query fan-out),通过分解用户问题为多个子主题,实时搜索更广泛、更多样化的网络内容,确保回答的全面性和相关性。

未来升级计划:摄像头与个性化

Google 计划在未来数月内为 Search Live 引入以下重大升级,进一步提升其实用性和智能化水平:  

实时摄像头交互:通过整合 Project Astra 的技术,Search Live 将支持用户通过手机摄像头展示实时场景,AI 可基于视觉输入回答问题。例如,用户可将镜头对准一个地标,询问其历史背景,或展示一件物品以获取购物建议。此功能预计将于2025年夏季 在 Labs 中推出。  

个性化搜索结果:Google 计划允许 AI 访问用户授权的 Gmail 数据和搜索历史,以生成更个性化的结果。例如,AI 可根据用户过去的搜索偏好(如喜欢户外餐厅)或邮件中的航班确认信息,自动生成旅行行程。  

多模态增强:未来 Search Live 将进一步整合视频、图像和文本响应,提供更丰富的视觉化搜索体验,类似于 AI Overviews 的多模态升级。  

这些升级旨在将 Search Live 从传统的搜索工具转变为更像 全能 AI 助手 的体验,与 OpenAI 的 ChatGPT 或 Anthropic 的 Claude 等竞品形成更直接的竞争。

技术与市场意义

Search Live 的推出和未来升级标志着 Google 搜索向 对话式、情境化 体验的重大转型。Google 表示,自 AI Overviews 推出以来,用户对复杂、多模态查询的需求显著增加,AI Mode 的引入使搜索量在某些市场(如美国和印度)增长了10%以上。Search Live 作为 AI Mode 的核心功能之一,进一步推动了这一趋势。  

从技术角度看,Search Live 利用了 Google 的 Gemini2.5模型,结合其在语音处理和多模态推理上的突破,支持更自然的交互体验。Google 还计划将 Gemini 的前沿能力逐步融入核心搜索体验,Search Live 的部分功能未来可能成为默认搜索的一部分。  

市场方面,Search Live 的升级将直接影响数字营销和内容创作领域。由于其语音和视觉搜索能力,营销人员需优化内容以适应 对话式查询 和 多模态展示,而非传统的关键词搜索。这可能推动网站内容向更动态、交互性更强的方向发展。  

早期用户反馈显示,Search Live 的 语音交互流畅性 和 多任务支持 受到好评,尤其适合移动场景下的快速查询。例如,用户在准备旅行时可通过语音获取打包建议,或在户外通过摄像头识别植物和地标。CNET 测试表明,Search Live 在处理时事(如中东冲突)时能快速提供大量信息,但需用户进一步 уточнить 查询以避免信息过载。  

然而,Search Live 也面临挑战:  

区域限制:目前仅在美国通过 Labs 提供,全球推广时间表尚未明确,可能限制其初期影响力。  

隐私争议:个性化功能需访问用户数据(如 Gmail 和搜索历史),可能引发隐私担忧,Google 需确保透明的权限管理。  

内容生态影响:新闻媒体联盟批评 Google 的 AI Mode(包括 Search Live)可能减少网站流量,因 AI 直接提供摘要而非引导用户访问原始网页。  

AIbase 认为,Search Live 的推出及其未来升级是 Google 在 AI 驱动搜索领域的战略性突破。实时语音和即将推出的摄像头交互功能将搜索体验从静态文本转向 多模态、情境化 的交互,极大提升了用户便利性。然而,Google 需在隐私保护和内容生态平衡上采取更积极措施,以缓解行业和用户的潜在担忧。

  • 相关推荐
  • AI日报:Midjourney重磅推出视频生成模型V1;OpenAI将在今年夏季发布GPT-5;谷歌推Search Live语音搜索功能

    本期AI日报聚焦多项AI领域重要进展:1) Midjourney推出首款视频生成模型V1,支持21秒视频生成;2) OpenAI CEO确认GPT-5将于今夏发布;3) Google上线语音对话搜索功能Search Live;4) OpenAI开源客户服务代理框架;5) MiniMax发布智能代理Agent;6) 恶意工具WormGPT出现新变种;7) OpenAI推出企业版ChatGPT折扣;8) DeepSite V2支持3D网页动画生成;9) AI工具可秒变PPT;10) 比亚迪与字节跳动合作开发动力电池技术;11) 马斯克否认xAI巨额亏损传闻。

  • Google点燃了智能眼镜的导火索

    「Gemini,我刚才喝的那杯咖啡的咖啡馆叫什么?」 这是Google员工Nishtha两分多钟前在I/O大会后台做的一个动作,在此之后,她又和人打了招呼,并用智能眼镜识别了后台墙上的照片属于哪个乐队,然后又走到了I/O大会的舞台上和大家打了招呼。一系列动作后,Google的智能眼镜还是准确地帮她识别出这杯咖啡应该来自Castro街的Bloomsgiving咖啡馆。

  • Google不革自己的命,AI搜索们也已经凉凉了?

    在刚刚结束的 Google I/O 开发者大会中,Google 宣布上线由 Gemini 驱动的高级 AI 搜索模式 AI Mode,可以应对复杂问题,支持追问。与之前的 AI Overviews 对 AI 搜索的浅尝辄止不同,Google 终于不再死抱着“关键词+链接列表”,开始拥抱“自然语言交互+结构化答案”的“新”范式了。 作为上一代搜索引擎的霸主,2024年,Google 的搜索业务贡献了1750亿美元,占总收入的一半以上,而转型

  • 谷歌谢尔盖·布林:我在 Google Glass 上犯了很多错!

    相较于当年的 Google Glass,如今生成式 AI 的发展让智能眼镜的功能变得“更可实现”……

  • AI日报:谷歌推最强AI全家桶Google AI Ultra;腾讯混元宣布模型矩阵全面升级;豆包·语音播客模型发布

    本文汇总了近期AI领域的重要动态:1)谷歌推出249.99美元/月的AI Ultra订阅计划,提供最强AI模型和高级功能;2)腾讯混元模型升级,新增视觉推理T1-Vision和语音对话模型;3)美图获阿里2.5亿美元投资,将在电商和AI领域合作;4)豆包推出语音播客模型,实现文本快速转音频;5)百度文心X1 Turbo获信通院最高评级;6)谷歌发布Flow AI剪辑工具,集成Veo3等三大模型;7)谷歌Veo3支持4K视频生成;8)Imagen4图像模型发布;9)Gemini2.5 Pro新增并行推理功能;10)谷歌推出虚拟试衣工具;11)公测AI编程助手Jules;12)苹果计划在iOS19开放AI模型;13)京东云推五大免费AI营销工具;14)字节开源多模态模型BAGEL;15)英伟达发布物理推理模型Cosmos-Reason1。

  • Gemini接管搜索、全家桶秒变通用Agent ,以及Google Glass is so back!

    谁也没想到,Google I/O现场的最高潮来自“复活”的Google Glass有些翻车了的实时demo。2025 年 5 月 20 日,Google的年度开发者大会Google I/O在加州山景城举办。 与去年在举办之前一天被OpenAI“狙击”不同,今年的Google I/O,剑拔弩张的氛围让位给了派对的氛围,在ChatGPT带来的狼狈之后,Google已经回到了自己的节奏。 是的,它回到了饱和式发布的节奏。当天Google一口气发布了至少十�

  • Anthropic 开始给 Claude 搞“语音模式”了

    默认情况下,该功能由 Anthropic 的 Claude Sonnet 4 模型提供支持,大多数免费用户每天大约可使用 20 到 30 次。此外,只有付费用户才能使用一项 Google Workspace 连接功能……

  • 赛思获评国内通信大厂S级供方,跻身国产SLIC语音芯片领军者行列

    浙江赛思电子科技凭借卓越技术实力和产品质量,获国内头部通信大厂"2025年质量绩效S级供应商"认证,其自主研发的ASX630系列SLIC语音芯片填补了国内技术空白。该芯片具备高性能传输、可编程设计等优势,能快速提供电信级FXS解决方案,大幅降低硬件迭代成本。此前我国通信基建长期依赖进口SLIC芯片,每年需求达上亿颗。赛思通过"设计-制造-封测"全链条品控体系,确保产品性能稳定,已与国内通信大厂在技术创新、供应链协同等方面展开深度合作,共同推动通信核心器件国产化进程。

  • AI日报: ChatGPT免费开放记忆功能;华为WATCH 5智能手表接入双大模型;Claude Pro升级重磅功能

    本期AI日报主要报道了多项AI领域重要进展:1)OpenAI向所有ChatGPT用户免费开放记忆功能;2)蚂蚁集团推出"AI健康管家",服务4000万用户;3)Anthropic与DeepLearning.AI合作推出免费MCP课程;4)谷歌DeepMind开发无需3D模型即可生成逼真运动视频的新技术;5)Exa与OpenRouter合作为400+大模型提供实时网络搜索功能;6)中国知网推出CNKI AI学术研究助手;7)Anthropic推出Claude Explains博客项目;8)Claude Pro新增研究模式和远程MCP整合功能;9)Fish Audio发布基于200万小时数据训练的OpenAudio S1语音模型;10)OpenAI升级Codex编程工具;11)华为WATCH5接入盘古和DeepSeek双大模型。

  • 更智能的Galaxy相机:懂你所见 即时互动

    本文探讨了移动设备成像技术的发展趋势。三星Galaxy设备通过硬件、软件与AI技术的深度融合,突破了传统影像工具的局限,构建了全面的技术体系。其相机不仅能"看懂"场景,还能提供实时反馈,进化成更直观的视觉信息交互界面。当这种交互与折叠屏结合时,将带来更震撼的沉浸体验。同时,三星始终重视隐私保护,确保用户数据安全。即将发布的三星折叠屏新品相机将更智能,不仅能生动记录生活瞬间,还将使日常使用体验更流畅、个性化和有意义。令人期待的Ultra体验即将在折叠屏上展开。

今日大家都在搜的词: