VR陀螺 案山子:Ray-Ban Meta爆火背后AIGC + XR启示

2024-09-13 18:10:31来源:VR陀螺


2024年9月11日,由VR陀螺联合CIOE中国光博会主办的「光聚未来•第五届中国AI+AR技术应用高峰论坛」在深圳国际会展中心顺利举办。

本次活动以“光聚未来”为主题,聚焦AI与AR技术融合发展,从底层核心技术、生产工艺、产品应用多维度展开深度探讨。来自京东方、JBD、芯明、谷东科技、鲲游光电、Eulitha、VR陀螺以及陀螺研究院的行业嘉宾为到场观众带来了精彩的分享,演讲内容干货满满。

其中,VR陀螺总经理兼主编案山子为与会来宾奉上了“Ray-BanMeta爆火背后AIGC+XR启示”的主题演讲。

无我VR 聚合新闻

以下为演讲实录(内容略有删减调整):

各位下午好,其实在今天整个论坛开始之前,我的整个心都是悬着的。因为我们往年的论坛都在楼下办,而今年放在了楼上。我就特别担心大家会不会因为太远而不愿意过来,或者是没有关注到这个论坛,再加上我们今年总共有八个演讲,论坛时间比较长,所以确实是比较担心。但我看到现在还有很多观众在这边继续听我们的演讲,所以感到特别欣慰。

作为一个长期关注VR、AR产业的人,我们其实每年都在找热点,每年都在找一些创新点,不然我觉得这个产业就撑不下去了。所以很高兴看到今年AI为我们的产业带来了很多新鲜活力,也吸引了很多厂商加入进来。

我现在戴着的这副眼镜是Ray-BanMeta的一款AI眼镜,也是引发这一轮AI热潮的爆品。这款产品在短时间内就达到了100万副的销量。虽然100万副的销量对于传统的智能手机、耳机或其他消费电子产品来说不算高,但在一个新的品类里,能够在短时间内达到这样的效果,尤其是在AR眼镜过渡阶段的情况下,还是一个相当令人振奋的成绩。

我们选择讲这个案例,是因为Ray-BanMeta这个产品是一个传统眼镜厂商和科技厂商合作的结果。这款眼镜其实还是属于传统眼镜的范畴,它就是Ray-Ban的一个经典款式,只是在上面额外集成了音频功能,并且可以直接调用AI模型。

举个例子,比如我可以说"HeyMeta"来唤醒它,然后让它拍照。眼镜旁边的指示灯会闪一下白光,就表示它拍下了一张图片,图片还会实时回传到我的手机上。不仅如此,用户还可以通过语音指令让它执行更多、更复杂的任务,这非常智能。

回到为什么要讲传统眼镜呢?我们认为眼镜是一个非常私人化的东西,每个人的眼镜都不会像电脑一样给别人用,甚至电脑都不会轻易给别人用,因此眼镜非常私密。而且很多人都会拥有多副只有自己使用的眼镜或墨镜,尤其是有近视的人,这也预示着未来我们这种酷似传统眼镜的轻量级智能眼镜可能在短时间内所实现的一个规模。

从传统眼镜的销量来看,2023年全球眼镜销量达到了23亿副,这里面包括了屈光眼镜,或者其他功能性眼镜以及墨镜,其中墨镜的销量也达到了8.5亿副。

所以从整体情况来看,眼镜的用户群体是非常庞大的。就以现场为例,在场的人中就有很多戴眼镜的,这在科技圈、互联网圈还是很普遍的。其次随着学业、工作压力的增加,整个中国乃至全世界的近视人群比例都在不断上升。

我们再来看一下全球都有哪些知名的墨镜品牌,可以看到,这些眼镜品牌大多都有很长的历史。其中有些就是传统眼镜品牌,也有很多是奢侈品品牌,还有一些是运动品牌等。总的来说,每一个眼镜品牌都有其独特的标签,自己定义的方向,以及特定的用户群体。所以在这个领域里,你很难用一款单一的产品打入一个非常庞大的主流市场,它不像其他消费电子产品那样。

接下里这些品牌可能会成为很多科技公司需要去争抢的资源。因为科技公司要打入一个传统领域并不容易,它如果要真正的把这个传统的眼镜变成一个新的消费电子产品,相对来说还是有一定难度的,所以很多科技公司会选择与一些传统的眼镜厂商合作。

总结一下眼镜行业的特点:眼镜行业是多品牌并存的,有来自专业眼镜领域的,有来自奢侈品领域的,有来自运动品牌领域的,也有来自科技领域。它并没有出现如今智能手机领域这样的情况,就是全球少数几家公司就占领了整个市场。所以这个市场非常分散,而且需求也非常分散,每个人对眼镜的需求都不一样,这就导致了产品的SKU非常多。

在今年与许多厂商交流后,我们发现如果真的要做一款消费级的智能眼镜,SKU的定义会非常困难。它的颜色、款式、造型,甚至设想的一些功能都可能影响到最终的产品形态,这也给产品的硬件和ID设计方面带来了很多困难。

从消费者的角度来看,每个人的脸型不一样,肤色不一样,对于眼镜风格的追求和喜好也不一样。所以它一定是一个定制性强、高度个性化的产品。这种定制性强除了刚才提到的每个人的喜好之外,还包括眼睛本身已经存在的一些问题,比如近视或远视,这就还需要经过验光才能最终找到一副适合自己的产品。

同时眼镜厂商还有一个非常重要的点需要考虑,那就是人与人之间感官的差异。在这个领域工作多年后,我发现有些人觉得戴一个600克的VR头显,三个小时也没问题,但有些人可能戴上去十分钟就受不了了,一定要摘下来。所以每个人对这种设备的感受完全不一样,而这对轻量级的产品也同样如此。有些人可能只能接受十几克的近视眼镜,但有些人就能够接受30多克的重量。

现在我们看到很多眼镜产品正在朝着40克以下的目标推进,但就如前面几位技术专家所提到了,想要实现30克再往下就非常困难了。因此,如果我们想把这个产品做成一个面面俱到的六边形战士,其实是非常困难的,甚至是不可能的,所以我们只能在其中做取舍。

正因如此,我们认为智能眼镜实际上受到了传统眼镜的一些限制,这些限制会让智能眼镜无法像其他通用型电子产品那样发展。反观其他产品,如果你要推出一款像AirPods这样的耳机,你可能只需要选择不同尺寸的耳塞,就可以将产品推广到所有人那里。

虽然拥有诸多限制,但我们认为AI,以及AI+AR的智能眼镜,仍然必须遵循传统眼镜的框架,因为它是一个穿戴产品,不像手机这类其他的产品,消费者对眼镜的佩戴感受非常敏感,重量会极大地影响舒适度。哪怕只是稍微重了一克,消费者在长时间佩戴后都会感到非常累,增加的每一克重量都会反映到用户的感受上。

传统眼镜中还有很多东西同样需要智能眼镜厂商去重点关注,比如传统眼镜的一些整体框架,即便结构看起来非常简单的一副眼镜,里面涉及的技术也非常多,需要厂商经过非常多次的测试,甚至需要很多人真实参与测试与反馈,并经过不断地选择,最终才能调试出一款可能适合大多数人群的产品。

除了结构件之外,其中还会涉及到设计款式、选材用料,以及一些功能性的选择等等。每一个环节看起来似乎都很简单,但实际做起来却又都很复杂。

至于智能眼镜这类产品的发展路径,我觉得大家的观点还是比较一致的,就是从传统眼镜开始,先具备眼镜应该有的功能,然后再向智能化和AR化的方向推进。

我们每年都在光博会上举办论坛,一直在关注整个AR技术的进步,我们也确实能看到AR技术每年都有新的进展。

我们去年主要讨论的是AR光波导的量产能力,包括它的整体良率的提升,以及规模化生产。到了今年,我们讨论的问题就变成了整个AR光波导的去彩虹纹,解决它的均匀性问题和漏光问题等等。很高兴能看到AR在各个方面都有进步,但目前AR还有很多技术方面的难题需要解决。

因此我认为智能眼镜AI化的发展速度会非常快,AI可能会在接下来的所有眼镜中都逐渐实现,但AR的实现速度可能会相对慢一些。

最后的AI+AR,这一步则是还需要更多的时间才能实现。

即便如此,目前整个行业的发展速度还是蛮快的,已经有30款AR眼镜在筹备中,计划面向市场推出。不光是AR眼镜,其中很多大的互联网厂商,包括手机厂商也在进行AI智能眼镜的储备。这两个技术方向并没有矛盾,只是说一个可能更面向相对远一点的未来,另一个更能够快速落地。

传统的眼镜企业、互联网科技公司、手机巨头以及很多创业公司都在做产品,这是一个好现象。我们最担心的就是没有人进来做产品,没有人去推动这个产业,那才是最可怕的,看到大家都在投入这个赛道我也感到十分欣喜。大家都在做这个产品,市场上鱼龙混杂,虽然一开始可能会有一段时间的混乱,但我觉得用户一定是明智的,他们知道一分钱一分货,如果你的产品要卖2000多元,那你肯定要提供与之匹配的体验。

所以经过一段时间的市场混乱之后,我觉得它会回归到一个正常的发展路径上来。同时,我们现在最重要的是验证这个赛道。只要你有一个成功的单品,就能验证市场的可能性。这就是为什么看到Ray-BanMeta卖爆后,大家都想加入进来。因为我们看到了这个现象,验证了它的市场可能性。

这也是我们看到有越来越多的传统眼镜厂商和科技企业期望达成合作的原因。在Ray-BanMeta大获成功后,Meta就希望与EssilorLuxottica达成更加深入的合作,购入了部分股权。同时,Google现在也正在与EssilorLuxottica洽谈一些收购事宜。所以很有可能之后会有大的互联网公司或科技巨头来收购一些传统眼镜公司,以获得他们的传统眼镜开发或制造能力,包括他们的渠道能力,同时又能融合新的技术进去。

另一条合作路径就是博士眼镜与雷鸟创新成立一个合资公司这样的形式,一起推进智能眼镜的发展。这对双方来说都是有利的,科技公司需要传统眼镜的生产制造能力,但传统眼镜公司又需要新的科技公司来赋能,来进行产品迭代和探索新方向。不过随着后续发展,我觉得很有可能会出现像之前传统汽车与新能源汽车的情况,就是未来的科技企业会不会实现降维打击,然后把传统企业干掉?

说实话,这真的有可能,首先互联网公司的行动速度非常快,它对市场的敏感度高,而且有原有的庞大用户群。再加上戴眼镜的人群都分布在各个行业,他们日常接触到的都是这些原有的大科技品牌。那如果科技品牌已经能够在ID设计等方面能够媲美传统行业的时候,那我觉得可能传统眼镜企业的优势就不存在了。

所以我们预计未来两年很有可能会出现一个高峰,而且现在很多公司正在加入这个领域,目前已经看到了这样的一个趋势。

接下来我们想探讨的是一个话题是端侧模型,这个为什么很重要呢?因为我们现在在使用智能眼镜的过程中会发现,不管海外的还是国内的产品,其实都已经具备了调用ChatGPT或者国内的一些大模型的能力,但是你会发现你在用这些模型的时候其实并不是那么顺畅,你会发现它中间的延迟很高,尤其是如果你要调用ChatGPT等海外模型时,你需要有特殊的网络环境,之后它的整体反应速度肯定达不到本地模型那么快的速度。

所以我们需要端侧模型,不过现在的端侧模型其实都还是聚焦在手机和电脑端,虽然已经有厂商在可穿戴设备,像手表这样的设备上面去实现它的端侧模型,但是目前还没有落地的产品。模型的发展就是一方面在不断地把它整体的参数往上提,同时在不断地优化它的整个算法和模型压缩。那未来是不是能够融入到我们这么小的一个眼镜里面来?我觉得是很有可能的。

以Google和Meta的两款眼镜为例,首先两者的区别在于Meta的这个眼镜没有显示功能,而Google的眼镜带有显示功能,然后还有一个核心的差异在于Meta的眼镜如果要去识别一个东西,需要先拍照,然后再基于这个图片来进行分析,但是Google的眼镜则是实时的,它不需要预先进行拍照,能够直接通过摄像头实时识别面前的环境。

这个核心的差异点其实在于你整个端侧模型的运行逻辑,是否能够实时的,无延迟的去调用整个AI。

最后我们来关注一下AI智能眼镜的使用场景,现在其实大家主打的场景都大同小异,但是有些厂商的眼镜会在里面来去做一些差异化,模块化的分配,例如到底要不要放扬声器?要不要放摄像头?

这些不同的传感器所带来的一些功能变化可能会影响到最后的一个功能体现,这其实也是你在进行产品定义的时候需要去思考的问题,我的眼镜的核心功能点究竟在哪里?

所以有时候能不能最终打开市场,其实都在于这个一个好的产品经理。那总结来看的话,就是AI或者AI+AR的这个演进,其实最终的场景会有非常多,有也可能会出现很多垂类的这个产品,比如说这个骑行的,然后骑行里面又分为这个摩托车骑行、自行车骑行,然后也有这个翻译的,还有包括信息提示的,以及像Ray-BanMeta这种更注重于拍摄的。我觉得每个场景其实它都是有潜力的,只是说你能不能把这个产品功能做好。

我今天的分享就到此结束,非常感谢各位。

新闻媒体更多>>
  • VR网
  • Yivian
  • 青亭网
  • 麦逗VR
  • VR陀螺
  • 魔多VR