查看
多人同时定位与映射
(苹果同样在积极地为未来的增强现实设备研发SLAM技术。
在名为“MultipleUserSimultaneousLocalizationAndMapping(多人同时定位与映射)”的专利申请中,苹果主要描述了针对增强现实的多人SLAM技术。
这家公司在专利背景中写道:“目前市场存在各种针对单名用户或单台设备的SLAM技术。但行业同样需要允许多名用户在物理环境中共享虚拟对象的SLAM技术。”
具体而言,由于物理空间的追踪和定位不一致,今天的AR体验大多局限于单名用户,所以如何为AR带来
为了支持多人AR体验,设备必须能够获取关于环境的一致映射和其他设备的一致定位。
在下面的苹果专利图中,两名用户正在同时感知同一个计算机生成现实环境。
为了获得一致的AR体验,用户#A手持的设备#400A可以根据由第一图像传感器捕获的物理环境图像来获得第一组关键帧,并执行SLAM以生成定义第一组关键帧的关键帧相对位置的映射;用户#B手持的设备#400B可以根据由第二图像传感器捕获的物理环境图像来获得第二组关键帧,并生成定义第二组关键帧的关键帧相对位置的映射。
在一个实施例中,设备#400A和设备#400B可以结合诸如运动传感器、深度传感器和方位传感器等附加传感器的数据和相应的传感器参数来执行SLAM。
接下来,设备#400A接收第二组关键帧,并将接收到的关键帧定位到映射。设备#400B接收第一组关键帧,并将接收到的关键帧定位到映射。
在一个实现中,设备#400A和设备#400B各自根据一致的算法合并来自对方的物理环境映射,从而提供一致的映射结果。苹果特别指出,通过由用户设备本地维持和合并关于物理环境的映射,这消除了对中央用户设备的需要,同时允许任何用户设备加入或离开多用户SLAM环境。
这时,如果用户#B在增强现实体验中添加了一个虚拟对象(如虚拟花瓶),设备#400B将相应地根据视图生成一个锚定。其中,锚定定义虚拟对象相对于关键帧的位置。
用户#A手持的设备#400A可以接收#400B的锚定,然后根据早前合并生成的一致映射及接收的锚定显示包含所述虚拟对象(如虚拟花瓶)的计算机生成现实环境。
不仅只是这样,设备#400A同时可以根据设备的方向以符合用户#A视角感知的效果呈现由用户#B添加的虚拟对象(如虚拟花瓶)。
苹果在一个示例中写道:“所述方法基于锚点和映射在同一个位置显示包括虚拟对象的计算机生成现实环境。通过所述方法,第一电子设备和第二电子设备的计算机生成现实体验可以更加一致,因为虚拟对象是相对于相同的关键帧定位,并且在每台设备的各自映射中包括或以其他方式使用相同的关键帧。例如,在第二电子设备视图中放置的虚拟花瓶同样会放置在第一电子设备的视图中,而且虚拟花瓶可以以符合用户视角感知的效果呈现。”
这家公司最后总结道:“将相同的关键帧和锚点合并到同一映射中有助于确保花瓶在两个计算机生成现实体验中实现更为一致的定位。”