疫情背景下,Google为了与本土开发者相聚,GDS2020(Google开发者大会)搬到线上,以“代码不止”为主题,14+产品线,50+精彩技术演讲,70+技术专家,6天技术演讲满满干货。ARCore压轴出场,着重介绍了今年新推出的两项AR领域的重磅功能:DepthAPI(深度API)以及持久云锚点(PersistentCloudAnchors)技术,搭载引人入胜的精彩展示,带你感受科技为生活带来的无限可能。
Google发布于2018年的ARCore是增强现实技术开发者的平台,为Android和iOS用户创造有效的AR体验。目前该技术已支持7亿台以上的设备,被应用成千上万款APP上,并且持续成长中。
11月16日的Keynote演讲,以及11月21日的两场会议围绕“ARCore新功能”和“深度API实现AR真实感”两大主题,介绍了ARCore在技术上的新进功能,在环境景深理解上的进阶技术探索,以及与本地开发者的创新合作成果。加上科技达人多角度诠释ARCore技术更新及本土案例,掀起科技迷们对AR的新一波热情。
ARCore在中国-越来越多开发者正在创新运用
从2018年ARCore技术登陆中国,已经在教育、购物、游戏等多个行业和大量开发者进行合作。随着ARCore的不断更新,越来越多的中国开发者正在创新应用这项技术,为本地用户带来更多新奇体验。
美图-用AR拍出梦幻自我
美图公司利用ARCore的增强脸部API(AugmentedFacesAPI)构建了100多个自拍滤镜,让用户可以在拍摄照片和视频时体验AR特效。增强脸部API提供高精度的由468个点组成的密集3D脸部网格,追踪嘴部动作、眨眼、点头和一些复杂的细节。
此外,新推出的瞬间放置API(InstantPlacementAPI)对美图更是如虎添翼。加上几行代码,通过将AR对象锚定到2D图像中,让用戶不需要扫描,就可以放置虚拟物件并进行互动。
有道少儿词典-用AR身临其境地学习
有道少儿词典使用AR打破了时空限制,让孩子们有趣和又有效的方式学习新单词。利用ARCore的环境理解(EnvironmentalUnderstanding)及平面识别(PlaneFinding),识别环境中的对象和特征,精确地理解环境,加上炫酷逼真的3D模型,为孩子们带来身临其境学单词的乐趣体验。
学习过程中,孩子们不仅可以将精致模型投射在家里,从各种角度进行观察,放大缩小或移动;还可以点击模型上的中英文词框,或点进查词结果页,查看中英单词的权威释义,使形象和字义深刻联结。这大大提升了学习的趣味性,让孩子们边学边玩两不误。
滴滴-用AR让路痴永不迷路
在火车站、商场和机场等大型公共区域,你是否有打上车却找不到司机的体验?AR实景导航,让路痴轻松找到方向。
基于ARCore技术,滴滴构建了一个实景导航解决方案,实时识别用户和环境之间的定位关系,AR实景导航引导信息逼真地和实景环境相结合,用户只需要跟着AR路标走,直接跳过转换2D地图信息的步骤。在这个过程中,ARCore的环境理解和运动跟踪功能,确保手机始终识别用户方位,给出正确的路标指导。
在定位时,ARCore会提示用户获得一张有效定位图片,利用运动追踪功能,感知用户位置、移动速度和角度。同时,ARCore通过环境理解功能可以理解周围现实环境,估算平面信息,不论是商场地面,还是垂直于水平地面的墙壁、指示牌,它都能快速理解并相应放置虚拟指示路标,使引导信息渲染得更加逼真,让用户一看就明白。
这种有用、科技感十足的导航方式,一经推出就大受用户好评。这项功能在中国、日本等多地上线,据数据显示,它帮助用户节省近1/4的时间,满意度达80%。
ARCore新进展-让更多人,在更多地方体验更逼真的增强世界
除了这些丰富多彩的创新合作成果,本次Google开发者大会上,还着重介绍了ARCore技术的最新进展,为各位开发者们带来了两项AR领域的重磅功能:DepthAPI(深度API)以及持久云锚点(PersistentCloudAnchors)技术。
深度API-解决AR界的遮挡及互动难题
2020年中,Google发布了ARCoreDepthAPI(深度API),为开发者们带来解决虚拟物件拟真技术难题的希望,开发者凭借DepthAPI和单个RGB摄像头就可创建出深度图。不依赖任何特殊硬件,所以在大部分兼容ARCore的设备上都是可以使用深度API的。
DepthAPI的一项最关键功能就是“遮挡”:虚拟物体能够准确地出现在现实物体后面,与场景真正融合在一起。此前没有遮挡功能,虚拟物体容易“横空出世”,更像是现实世界中的“贴图”,让人瞬间出戏。
△左边没有遮挡功能的“喵星人”缺乏真实感,右侧开启遮挡功能的“喵星人”则逼真地藏在了遮挡物后面。
那么究竟深度API是怎么实践的呢?怎么使用深度呢?
首先,我们先定义深度:就像下图里面表示的,C点是摄像机的位置,Z轴是摄像机的主轴。大写的A点,表示一个现实的物体。C到A点的深度,就是线段CA在Z轴的投影。
一旦我们知道场景里面的物体的距离,我们就可以在渲染虚拟物体的时候使用这个信息,进行Zbuffer计算。比较当前的像素点的深度与之前渲染在这个像素的点的深度,如果已经有别的物体出现在更近的位置,那么我们就忽略当前的像素点,这样就实现了基于深度的遮挡效果。
如上图所示,我们使用蓝色表示近处的深度,蓝色越深表示一个物体靠近摄像头越近,它的的深度值就越低。当我们启用深度表示时,就可以看到桌子的深度比椅子所在的位置深度低,所以桌子就能遮挡住椅子。
此外,使用深度信息,还可以做出一系列拟真的特殊效果。例如更加逼真的物理反弹飛濺,避开障碍物的最佳路径规划,或完美贴合在凹凸不平的表面。也可以近一步运用粒子特效,模拟一些很难用其它传统的渲染技术达到真实感的自然现象,如火花、落叶、下雨、下雪等。
知名的社交应用Snap公司的设计师和工程师就将Depth的多项特性巧妙地融合在一起,开发出了一套与实景完美結合的Snapchat滤镜,包括跳舞热狗(DancingHotdog)以及Android版独有的海底世界(UnderseaWorld)。此外,Snapchat也在滤镜开发工具中,整合了ARCoreDepthAPI,滤镜创作者只需在开发工具中下载ARCoreDepthAPI模版,就能开发出基于深度,更沉浸更真实的体验。因为开发过程大大简化,滤镜创作者们可以更轻松地应用高级的深度功能。
△TeamViewerPilot应用中的3D注释功能让专家远程精准标记出重要细节
三星的快速测量工具QuickMeasure也在技术支持下不断迭代,目前QuickMeasure就可以在三星GalaxyNote10+和GalaxyS20Ultra的设备上应用ARCoreDepthAPI,为用户提供更精确的测量功能了。
三星相机技术项目经理SoowanKim认为DepthAPI大有可为:“Depth会从多个层面丰富用户的AR体验。它将减少扫描时间,加快平面检测速度,即使是纹理不清晰的平面也能快速检测。
AR作为一种视觉沉浸式媒介,持续吸引着社会各界的广泛关注。Google作为技术先驱,正积极地与全球开发者合作,用大放异彩的ARCore带来一个又一个惊喜。这种变革式的新体验,在不断发展中已有长足进步,但想必它还有更为广阔的远景。未来,它将如何予力社会与个人,改变你我的生活呢,让我们拭目以待。
想马上开始实做你的第一个AR应用却没有基础?Google与网易有道在中国大学MOOC(慕课)合作,上线ARCore技术零基础免费线上课程,助力开发者学习成长。你可以直接到慕课官网搜索“GoogleARCore入门开发课程“,马上开始学习!
正在开发ARapp但总是觉得虚拟物件效果不够真实?你可以通过Google的示范应用ARCoreDepthLab马上体验ARCore深度API的功能。这个应用已经上架GooglePlay,并且代码开源,在Github中直接搜寻arcore-depth-lab,相关的代码、论文、简介小视频都可以免费下载。