Snapchat、Instagram等应用中的AR滤镜,以及LBSAR手游《精灵宝可梦Go》的人气越来越高,似乎是在推动AR在移动端的发展。殊不知,如果单纯将叠加在屏幕上的实时虚拟内容称为AR,那其实气象播报领域可能已经将AR商用几十年了。在动态影像上叠加数字内容与其说是增强现实技术,倒不如更像是“视频增强技术”,与空间计算等复杂的AR相比,其实前者更应该被划分在“类AR”范畴。
其实在AR领域,有“硬AR”和“软AR”的说法。Oculus首席科学家MichaelAbrash曾经说过,硬AR的定义更像是将数字与显示完美混合成可共享内容的穿戴式眼镜,而软AR则指的是显示效果明显没有那么完美的AR技术。他还指出,硬AR的效果非常令人信服,也是AR技术未来将达到的成熟形态,不过短期内应该还无法实现。
的确如此,目前HoloLens和MagicLeapOne等AR头显在显示效果和视场角上依然存在局限,而Facebook目前还未推出AR硬件,同时继续在不断发展AR底层技术。据了解,Facebook希望推出一款可以全天使用,并且采用Insight定位技术,可感知周围空间的AR眼镜。不过在那之前,Insight定位的功耗需要降低2%,才能适合用在AR眼镜上。
此外,类AR也可以作为一款足够有趣的叙事工具。比如MIT媒体实验室与Adobe研究所近期开发了一款支持实时交互的AR视频系统,它可以让用户用肢体语言来指挥虚拟的视觉元素,并通过这种方法来叙事。
据了解,该AR视频系统的硬件配置足够简单,只需要一台电脑/笔记本、一个Kinect体感传感器和一个穿戴式遥控器,也可以再加上一个用来预览AR效果的额外显示屏。有了这些装备,用户可以在拍摄视频的同时,用各种肢体语言来“画图”,或者触发雷雨AR特效。
Kinect传感器将负责追踪用户的手势和姿态,而遥控器的用途是,可以让用户在创作AR视频的时候,通过不同的按钮来控制视频效果,包括:载入图形元素、切换下一场景、用姿态或不同手势触发AR元素、暂停场景(仅用图形元素与场景空间的绑定)等等。
此外,该系统的操作界面足够简洁并且支持自定义,你还可以为不同的姿态或手势分别设置对应的AR特效。其支持的AR特效包括2D涂鸦、图像、动图、纹理和平面散布图等。
开发该系统的科研人员还总结了一些交互足够自然流畅的触发姿态和手势,比如:
1,利用双手来操控转换参数,以及改变AR物体的形状;
2,用图像手势来识别关于某样物体的尺寸、形状和移动信息;
3,用信号手势来改变指示箭头的方向;
4,用静态和动态姿态来触发特定的命令或参数。
总之,这个AR视频系统在叙事方面具有丰富的表现力,可以让普通的视频故事变得更加生动和直观。
尽管如此,这种在屏幕上观看的AR影像并不是工程师和科学家们所期待的硬AR技术。与此同时,市面上的AR头显/眼镜也还不具备清晰且逼真的显示效果,而且存在视场角有限、定位不够实时等问题。
当然,MagicLeapOne、HoloLens等AR头显的确在B端曾为客户带来的不错的投资回报率,也能从中看到未来AR的潜力,只是它们对于C端市场来讲可能吸引力还不够大,而且价格昂贵、分发渠道窄,大多数人可能并没有机会去体验。
而未来的AR头显,将有望带来比普通屏幕更多的沉浸感和吸引力,到时候当更多人体验到AR眼镜/头显,可能就会发现自己还想继续体验下去。
不过在那样的未来到来之前,C端AR还将主要围绕着更常见的手机、平板电脑等移动设备,所提供的内容也大多是类AR。尽管如此,AR依然在一点一点进步,未来相信会出现更多靠近真正AR的移动端应用,并找到更多关键的应用场景。本文系青亭网翻译自: