首页 > 业界 > 关键词 > 苹果最新资讯 > 正文

苹果完善AR和VR头显的视频压缩和触觉反馈功能

2021-02-10 12:08 · 稿源:cnbeta

苹果正在继续开发和完善 "苹果眼镜 "等头戴式设备的技术,包括视频压缩方法和方向性触觉反馈。据悉苹果正在研发两款不同的头显,包括一款利用苹果VR技术的混合现实头戴式设备和上述的苹果AR设备。周二,苹果获得了两项专利,可以适用于这两种头显。

在第一项名为 "具有方向性触觉输出的电子设备 "的专利中,苹果概述了一种可以 "相对于设备外壳表面(如侧壁表面或其他设备表面)的给定方向提供触觉反馈的方法。首先,苹果概述了触觉反馈的一些问题,包括输出太弱或提供不想要的感觉。此外,它还表示,一些系统可能提供的触觉输出并没有应用到用户身体的适当位置。苹果还指出,触觉输出设备可能过于笨重。

虽然看起来苹果这项专利所述的技术并不是专门针对头显,但苹果也指出,该系统的操作方法可以同时使用头戴式设备和手机。该方法将包括一个运动传感器收集用户输入,以相对于显示屏中的其他虚拟对象移动一个虚拟对象。当用户施加一定的力或物体与周围其他虚拟物体互动时,系统将应用方向性反馈,提供对便携式电子设备进一步移动的阻力感。

第二项名为 "视频压缩方法和设备 "的专利更清晰地概述了一种头戴式设备的方法。这项专利的重点是基于 "包括头戴式显示器和基站的混合现实系统 "的系统。苹果在专利当中表示,头显传感器套件收集的数据可以通过有线或无线连接传输到基站。

渲染引擎地根据传感器信息渲染包括虚拟内容的帧,编码器在通过连接将帧发送到头显之前,根据编码协议对帧进行压缩。在编码器中不是使用之前的帧来估计运动矢量,而是将头显和渲染引擎的运动矢量输入到编码器中,并用于压缩帧。

视频压缩将是头戴式设备的重要组成部分,尤其是有传言称它们将使用一套摄像头和超高分辨率8K显示屏进行视频输出。苹果在这里概述的系统设想了一种方法,可以减少在基站上对渲染帧进行编码后再传输到头显的时间。

此外,苹果还指出,可能会有一些特定的帧没有正确地传输到头显的时候。在这些情况下,苹果表示,AR或VR设备 可能会使用运动矢量从上一帧中合成一帧。确保视频输出的流畅性。这些特定的帧既可以是用户的实际周围环境,也可以是任何数量的虚拟物体和动画。两者结合在一起,就能提供一种混合现实或MR的效果。

苹果每周都会提交大量的专利,其中描述的许多技术最终都不会出现在消费产品中。专利和专利申请也没有说明某项功能或系统何时可能会进入市场。

  • 相关推荐
  • 大家在看
  • 参与评论
文明上网理性发言,请遵守新闻评论服务协议
  • 热门标签