AR增强现实技术正在不断发展,谷歌为Android创造了ARCore,而苹果为iOS提供了ARKit。从中99VR视界小编看到,AR开发者们将不再局限在Social Media应用,不论出于什么想法和体验都可以有机会探索AR增强现实技术。
AR增强现实技术
AR增强现实是一种为现实世界创建虚拟覆盖的方式,你可以将虚拟对象叠加在现实世界之中。你可能会问,这怎么可能?AR主要是通过手机,平板电脑,或者是某种形式的头显和眼镜进行感知。然后,设备的摄像头或传感器将寻找可以放置AR对象的表面。
AR的一个例子是宜家的应用。这个工具允许将宜家家居虚拟呈现在家中,然后你就可以判断这到底适不适合自己。医学生已经开始通过AR来辅助手术学习,增强现实可以将患者的X光信息呈现在视场之中,从而帮助他们更好地掌握病人的情况。AR的潜在用例无穷无尽,而ARCore和ARKit为我们探索发现提供了相应的工具。
谷歌ARCore
谷歌最初是于2014年开始涉足AR,他们当时的项目名为Project Tango。尽管Tango已经终止,但谷歌把他们从中学到的所有东西都用于构建ARCore。Tango需要专门的硬件才能运行,而ARCore是一个快速,高性能的安卓SDK,能够在数以千万计的兼容设备上实现高质量的增强现实。谷歌日前已经发布了ARCore的第二个预览版,可以支持更多的设备,并允许开发者在他们的应用程序中使用ARCore。
ARCore构建AR环境的关键技术:
运动追踪:使设备理解并追踪其相对于世界的位置。
环境理解:允许设备检测水平表面(如地面或咖啡桌)的大小和位置。
光线预测(Light estimation):允许设备估计环境当前的照明条件。
支持:Android Studio,Unity,虚幻引擎,C,Web
ARCore从根本上做了两件事情:追踪设备的位置;建立自己对现实世界的理解。运动追踪主要使用手机来识别兴趣点,并且持续进行追踪。借助这些信息和其他软件,谷歌可以计算设备的方向和位置。
所有这一切使得你可以将任何虚拟对象放置在房间之中,比如说一个巨大的高达模型。当你离开房间并再次回来时,这个高大模型仍然会停留在同一个位置。这就是运动追踪的力量。
苹果ARKit
ARKit伴随着iOS11正式出现在人们的设备上。苹果将ARKit定义为一个全新的框架,可允许你轻松为iPhone和iPad创建无与伦比的增强现实体验。通过将数字对象和信息与周围的环境相结合,ARKit使得应用程序不再局限于屏幕之内,它们将能够以全新的方式与现实世界交互。
与ARCore一样,ARKit在创建AR环境中涉及一系列的关键技术,而你将会发现ARKit和ARCore存在一定的相同点。
原深感摄像头:这只适用于最新iPhone X智能手机。借助这个工具,iPhone可以实现精准的面部识别,并且带来了一系列有趣的AR应用。摄像头现在可以精确识别用户的表情和面部特征,然后可以用来创建动画角色或实现有趣的自拍效果。
Visual Inertial Odometry(视觉惯性里程计):ARKit采用了VIO。这与谷歌的运动追踪类似,并且采用了摄像头和其他信息来精确地判断设备在现实世界的中的位置。
Visual Inertial Odometry(视觉惯性里程计):ARKit采用了VIO。这与谷歌的运动追踪类似,并且采用了摄像头和其他信息来精确地判断设备在现实世界的中的位置。
高性能硬件和渲染优化:ARKit支持A9,A10和A11处理器。这可以实现快速渲染和场景理解,并且提供一个流畅的体验。
支持:Metal、SceneKit,以及诸如Unity和Unreal这样的第三方工具。
AR增强现实发展
不论是谷歌ARCore还是苹果ARKit在技术上都十分相似且资本财力雄厚,如果手机作为一个特有的未来AR场景,那么可以预期AR的未来有很大的可能掌握在二者身上。但是,99VR视界小编发现,认定手机作为AR的未来场景确实过于片面和武断。随着硬件技术的成长,笨重的智能手机已然不再适合下一代计算机平台的承载。所以,说ARCore或者ARKit是AR的未来平台为时尚早。