文章相关引用及参考:映维网
一共更新了17篇专利。
(映维网 2019年02月26日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共17篇。更多专利披露请访问映维网专利板块https://patent.yivian.com/进行检索,也可加入映维网AR/VR专利交流微信群。
专利描述了一种增强现实声音实现系统。所述系统包括第一用户的第一计算设备;以及以有线或无线方式连接至第一计算设备的第一音响设备,其中第一音响设备由用户穿戴并包括声音录制功能,以允许第一用户能够接受三维增强现实音效。
专利描述了一种根据用户眼睛运动来显示沉浸式视频内容的方法,包括利用眼睛跟踪设备检测用户至少一只眼睛的视场;将所检测的眼动追踪坐标发送至眼动追踪处理器;识别与之对应的视频显示器区域;以第一分辨率调整来自视频存储设备的沉浸式视频内容以用于沉浸式视频内容的第一部分,以第二分辨率调整沉浸式视频内容以用于沉浸式视频内容的第二部分,其中第一分辨率高于第二分辨率;在前文所述的视频显示器区域显示沉浸式视频内容的第一部分,并区域之外显示沉浸式视频内容的第二部分。
3. 《Lucid Patent | 3D Camera Calibration For Adjustable Camera Settings(Lucid专利:用于可调相机设置的3D相机校准)》
专利描述了用于3D相机的校准与校正系统和方法。所述的校准方法可实时地为多个相机设置导出校准参数。校准参数用于校正用于创建3D图像,3D视频,和VR或AR体验一部分的立体图像。另外,专利描述了用于实现校准和校正方法的多相机系统。涉及有限数量校准点的3D相机校准方法降低了传统校准方法的成本和复杂性,同时可以支持更高性能的3D相机拥有更多可能的相机设置。
专利描述了用于增强现实和虚拟现实组合图像的系统和方法。根据一个实施例,在包括至少一个计算机处理器的电子设备中,用于呈现组合增强现实和虚拟现实的方法可以包括:(1)从图像捕获设备接收表示物理环境多个物理特征的物理数据;(2)接收包括物理环境至少一个虚拟特征的增强现实数据;(3)生成表示物理数据和增强现实数据的至少一个网格;(4)提供至少一个网格以用于物理环境的虚拟现实。
5. 《GE Patent | Self-Learning Augmented Reality For Industrial Operations(通用专利:用于工业操作的自主学习型增强现实)》
专利描述的实施例涉及一种用于自主学习型增强现实的系统,并用于由用户执行的工业操作(如制造,组装,修理,清洁和检查等)。 例如,所述方法可以包括接收正在执行的工业操作数据;基于接收的数据识别手动工业操作的当前状态;根据当前状态确定将由用户手动操作的未来状态;根据未来状态生成一个或多个增强现实显示;并根据场景将所述一个或多个AR显示输出至用户的AR设备以进行显示。所述增强现实显示可以识别用户手动工业操作的未来路径。
6. 《Adobe Patent | Realistic Augmentation Of Images And Videos With Graphics(Adobe专利:基于图形的逼真图像和视频增强)》
专利描述的技术涉及用图形增强图像或视频。更具体地讲,一些实施例涉及用源图(如计算机生成的图像或现实世界图像)逼真地或以照片级真实度增强目标图像或视频帧。在一个实施例中,根据目标图像的表面法线贴图识别目标图像的平面区段,然后利用平面区段确定用于变换源图的焦距和单应函数。
专利描述了用于支持协作式交互作为虚拟现实视频一部分的技术和系统。在一个示例中,生成视口,使得查阅用户设备的用户可以查看由源用户设备的源用户所查看的VR视频。例如,对于由查阅VR设备输出的VR视频,视口可以配置为至少部分地围绕所述VR视频一部分的边界。在另一实例中,视口配置支持查阅VR设备的VR视频输出缩略图的输出。专利同时描述了支持源设备和查阅VR设备之间的注释通信的技术与系统。专利同时描述了支持在内容编辑应用情景中有效分发VR视频的技术与系统。
专利描述的系统和方法通过识别VR头显触控界面上的触摸手势以检测用户交互。 在头显显示屏幕相对侧的正表面接收触控手势,使得触控位置和显示内容之间的对应对用户而言是直观可视。专利描述的技术可以显示光标,并致使用户通过一种类型的输入来移动光标,并使用第二种类型的输入进行选择。通过这种方式,用户能够直观地控制所显示的光标。然后,用户使用另一种类型的触控输入而在光标的当前位置进行选择。
9. 《Adobe Patent | Collaborative Interaction With Virtual Reality Video(Adobe专利:与虚拟现实视频的协作式交互)》
专利描述了用于支持协作式交互作为虚拟现实视频一部分的技术和系统。在一个示例中,生成视口,使得查阅用户设备的用户可以查看由源用户设备的源用户所查看的VR视频。例如,对于由查阅VR设备输出的VR视频,视口可以配置为至少部分地围绕所述VR视频一部分的边界。在另一实例中,视口配置支持查阅VR设备的VR视频输出缩略图的输出。专利同时描述了支持源设备和查阅VR设备之间的注释通信的技术与系统。专利同时描述了支持在内容编辑应用情景中有效分发VR视频的技术与系统。
专利描述的技术涉及使用一个或多个摄像头的RGB和IR像素组合来追踪可穿戴传感器系统的运动。特别地,它涉及使用RGB像素捕获现实世界空间的总体特征和特征值,并使用IR像素捕获真实世界空间的精细特征和特征值。它同时涉及在沉浸式虚拟环境中实现多用户协作和交互。它同时涉及从多个用户角度捕获共享现实世界空间的不同场景。它同时涉及在可穿戴传感器系统之间共享内容。它进一步涉及从可穿戴传感器系统的第一用户角度捕获图像和视频流,并将捕获图像和视频流的增强版本发送至可穿戴传感器系统的第二用户。
专利中的一个实施例所涉及的输入处理系统包括眼动追踪装置,其配置为通过追踪用户注视点来生成眼动追踪数据,并发送所生成的眼动追踪数据;语音输入装置,其配置为通过接收用户音频来生成语音输入信号,并发送所生成的语音输入信号;显示装置,其配置为根据眼动追踪数据在屏幕检测与输入控制相关联的目标,通过分析语音输入来提取用户控制命令,并根据用户控制命令对与所述目标执行输入控制。
12. 《IrisVision Patent | Methods And Apparatus For Vision Enhancement(IrisVision专利:视觉增强方法和装置)》
专利描述一种通过头戴式设备和用户可控设备来增强用户视觉的系统和方法。所述设备包括具有可变属性的放大气泡,其中场景一部分在完整场景中放大,而用户能够实时地修改图像处理方法,包括放大泡泡的属性。
专利描述的装置包括头显,其具有可固定至用户头部的显示组件,并用于向用户显示视频内容;多个处理器,其可固定在用户头部周围,并用于检测来自用户大脑电信号;用于存储应用程序程序指令的储存器;以及用于处理程序指令的处理器。处理器处理程序指令并将视频内容输出至显示组件。当视频内容输出到显示组件时,从传感器接收电信号,并将电信号与一个或多个相关的预定电信号参数进行比较。当用户暂时停止浏览视频内容时,根据满足一个或多个预定电信号参数的电信号自动改变应用程序的性能。
14. 《Dell Patent | Augmented Reality Workspace System(戴尔专利:增强现实工作空间系统)》
专利描述的增强现实工作空间系统包括物理显示设备,用户追踪子系统和增强现实显示子系统,而它们都耦合至计算系统。计算系统使用增强现实显示子系统来显示增强现实元素,并使用物理显示设备显示与增强现实元素协调的二维元素。当计算系统从用户追踪子系统接收说明用户正与增强现实元素的交互的用户追踪信息时,提供对增强现实元素和二维元素显示的协调性修改。
15. 《Dell Patent | Augmented Reality Workspace System(戴尔专利:增强现实工作空间系统)》
专利描述的增强现实工作空间系统包括物理显示设备,用户追踪子系统和增强现实显示子系统,而它们都耦合至计算系统。计算系统使用增强现实显示子系统来显示增强现实元素,并使用物理显示设备显示与增强现实元素协调的二维元素。当计算系统从用户追踪子系统接收说明用户正与增强现实元素的交互的用户追踪信息时,提供对增强现实元素和二维元素显示的协调性修改。
专利描述了基于用户眼睛状况数据的自适应虚拟现实和增强现实浏览。在第一实现中,通过将用户的眼睛状况数据映射至视频渲染参数,软件应用程序将根据用户的眼睛状况数据来渲染视频内容。根据用户眼睛状况数据渲染的视频内容可以提供给虚拟现实/增强现实播放器,并通过头戴式显示器播放。所述视频内容可以在播放之前进行预渲染,或在视频内容播放期间进行实时渲染。在另外的实现中,可以在视频播放之前根据眼睛状况数据校准和调整头戴式显示器。
专利描述的增强现实游戏系统包括用于每位玩家的3D眼戴设备,后者用于允许玩家感知周围的物理空间。结合AR游戏系统中的3D显示组件的操作,3D眼戴设备可允许玩家看到其他玩家,同时允许其感知基于特定玩家追踪位置而渲染的3D增强内容。 例如,随着两位(或以上)玩家通过双手等部位的移动来与游戏对象交互,3D增强内容可以包括在游戏期间围绕虚拟游戏环境/空间移动的游戏对象。AR游戏系统生成3D增强内容,并正确地表示游戏对象相对于玩家位置和视点的当前位置。
文章《2019年02月26日美国专利局最AR/VR专利报告》首发于映维网.