11.11云上盛惠!海量产品 · 轻松上云!云服务器首年1.8折起,买1年送3个月!超值优惠,性能稳定,让您的云端之旅更加畅享。快来腾讯云选购吧!
苹果的研究人员推出了一种创新模型ReALM,可将参考解析问题转化为语言建模问题,能极大提升AI助手处理很多描述复杂或模糊不清的内容。我们网购时选好了橘子、鸭梨、苹果、橘子汽水、洗发水、短袖、拖鞋等物品,然后告诉AI助手只结算水果。该模块还能通过用户的反馈机制,帮助模型进行自我学习改进其解析能力。
苹果开发出了一项能够实时理解和识别用户屏幕上显示内容的人工智能技术无需依赖屏幕截图或图像数据输入。这项技术被称为ReALM,它使得在与用户交流的过程中,智能助手能够看到用户所看到的一切内容,并理解用户当前正在进行的活动,从随时提供帮助。当结合其他最近的苹果研究论文,允许“一次性”响应——即AI可以从单个提示中获得答案——这表明苹果仍在大力投资于AI助手领域不仅仅依赖外部模型。
【新智元导读】苹果公司发布了一款参数量仅为80M的最新模型——ReALM,能够将各种形式的上下文转换为文本进行理解,包括解析屏幕、多轮对话以及上下文引用,提升了Siri等智能助手的反应速度和智能程度。会读心的Siri想不想要?今天,苹果发布了自家的最新模型ReALM,仅需80M参数,就能在上下文理解能力上打平甚至超越GPT-4!论文地址:https://arxiv.org/pdf/2403.20329.pdfReALM可以将任何形式的上下文转换为文本来进行理解,比如解析屏幕、多轮对话、以及上下文中的引用。随着模型大小的增加,所有数据集的性能都有所提高屏幕相关数据集的差异最为明显,因为这项任务在本质上更加复杂。