文章相关引用及参考:映维网
一共更新了20篇专利。
(映维网 2019年07月24日)近期美国专利及商标局公布了一批全新的AR/VR专利,以下是映维网的整理(详情请点击专利标题),一共20篇。更多专利披露请访问映维网专利板块https://patent.yivian.com/进行检索,也可加入映维网AR/VR专利交流微信群。
由终端用户使用的虚拟图像生成系统包括:投影子系统,其配置用于生成准直光束;以及显示器,其配置为响应于准直光束发射光线,从而向最终用户显示图像帧像素。像素具有用发射光线角度编码的位置。虚拟图像生成系统同时包括:感测组件,其配置用于感测指示至少一个发射光线角度的至少一个参数;以及控制子系统,其配置用于产生定义像素位置的图像数据,并根据为止和参数控制角度。
专利描述了用于卫生系统和各种医疗保健应用的配置,如用于患者诊断,监测和/或治疗。所述的健康系统可包括:光产生模块,其用于将光或图像传输给用户;一个或多个传感器,用于检测用户身体的生理参数,包括他们的眼睛;以及处理电路,其用于分析输入并确定一种或多种健康状况或缺陷。
3. 《Facebook Patent | Systems And Methods For Presenting Content(Facebook专利:呈现内容的系统和方法)》
专利描述了一种在渲染内容项期间出现的一个或多个显著兴趣点的显著性信息,其中突出的兴趣点预测为一个或多个用户感兴趣的对象,然后将描述显著兴趣点的显著性信息嵌入到内容项中。其中,系统在渲染内容项期间能够处理显著性信息并增强内容项的呈现。
专利描述了一种液晶显示装置,包括在像素区域中含有多个液晶的液晶层,以及耦合到液晶层的背光单元。多个像素设置在像素区域中。背光单元配置为在照明时期间向整个像素区域投射光线,并且在非照明期间不向液晶层的任何像素区域投射光线。
5. 《》
在一个实施例中,用于设计增强现实效果的方法可以包括,接收虚拟对象的模型定义。可以根据模型定义在3D空间中渲染虚拟对象。系统可以从用户界面的第一显示区域中以第一视角显示虚拟对象。系统可以在用户界面的第二显示区域中以第二视角显示虚拟对象。系统可以接收用户通过第一显示区域输入的用户命令调整虚拟对象。
6. 《Facebook Patent | Display Assembly Using Dynamic Liquid Crystal Array(Facebook专利:使用动态液晶阵列的显示器组件)》
头戴式显示器包括电子显示器,具有形成动态透镜阵列的LC单元的LC阵列,光学组件,眼动追踪器和控制组件。LC阵列折射从电子显示器发射的图像光。LC阵列包括注视点区域,其具有与注视点区域之外的剩余部分的透镜密度不同的透镜密度。眼动追踪器追踪对应于用户眼睛中央凹区域的注视点位置。控制组件生成发射指令并向LC阵列提供发射指令,并根据注视点位置改变LC阵列中的注视点区域位置。光学组件将由注视点区域折射的图像光引导至用户眼睛的中央凹区域。
7. 《Facebook Patent | Ocular Projection Based On Pupil Position(Facebook专利:根据瞳孔位置进行眼球投射)》
显示设备包括二维图块阵列。 每个图块包括二维像素阵列和二维电光元件阵列的电光元件。每个像素配置为输出光线,使得二维像素阵列输出相应的光图案。电光元件配置为将相应图案的光线的至少一部分引导至用户眼睛瞳孔。
专利描述了一种用于将与输入光瞳相关联的图像复制到输出光瞳的装置,其包括平面光波导,所述平面光波导包括基底,并且包括输入耦合器,中间元件和输出耦合器。输入耦合器将对应于图像的光耦合到基底中并朝向中间元件。中间元件执行水平或垂直光瞳扩展,并将对应于图像的光导向输出耦合器。输出耦合器执行水平或垂直光瞳扩展中的另一个,并将对应于图像的光耦合到波导之外。所述图像从输入耦合器传输到输出耦合器。所述装置同时包括相邻的平面光学元件,其可以提供更均匀的强度分布。
9. 《Microsoft Patent | Localized Depth Map Generation(微软专利:定位深度图生成)》
专利描述了一种定位深度图生成技术,其包括接收由图像传感器捕获的帧的像素数据,所述像素数据包括至少一个光强度值,并对应于在帧周期期间由图像传感器接收的光量;将像素子集识别为与物理对象相关联;选择帧的区域,所述区域至少对应于像素子集;选择性地为帧周期生成对应于所选区域的定位深度图。
在用于移动或拖动虚拟现实环境的系统中,佩戴头显设备的用户可以位于物理空间中的第一物理位置,并对应于虚拟环境中的第一虚拟位置。用户可以通过手持电子设备来选择虚拟环境中的第二虚拟位置。系统可以根据第一虚拟为止和第二虚拟位置构建三维复合代理表面,并且可以沿着代理表面移动虚拟环境的虚拟元素。尽管用户位于物理空间内的第一物理位置,但用户可以将虚拟环境的这种移动感知为从第一虚拟位置到第二虚拟位置的移动。
专利提供了一种装置,方法和计算机程序产品。所述装置检测眼睛对真实世界场景中的第一区域的注视;设置围绕所述第一区域的边界,所述边界排除现实世界场景中的至少第二区域;在第一区域内执行对象识别过程,并且避免在第二区域内执行对象识别过程。
12. 《Sony Patent | Unmanned Aerial Vehicle Movement Via Environmental Airflow(索尼专利:基于环境交互的无人机运动)》
竞技场包括多孔表面,多孔表面输出气流,从而为无人机提供升力并将无人机推离多孔表面。气流同时可以提供推力并将无人机推向平行于多孔表面的方向。无人机可包括一个或多个螺旋桨,后者可向无人机提供升力,推力或两者。可以在一段持续时间内修改气流以改变对无人机的升力或推力。可以基于竞技场的区域来修改气流,从而修改竞技场不同区域中的升力或推力。无人机可以包括记录物体世界图像或视频的摄像头。在摄像头馈送呈现给显示器之前,可以对摄像头馈送进行修改,并形成一种增强现实视图。
传感器产生表示头显是否正确佩戴的信号,从而为佩戴者提供合理的建议。传感器可以是搭载在头显中的压力传感器或运动传感器或拉伸传感器,或者可以是对佩戴者成像并使用图像识别来确定头显是否正确佩戴的摄像头。
14. 《Sony Patent | Performing Output Control Based On User Behaviour(索尼专利:根据用户行为执行输入控制)》
专利描述了一种信息处理装置,其包括:估计单元,其配置为通过比较检测单元检测到的数据来估计用户行为,并且配置为利用根据学习数据计算的行为特征量来检测头部运动;控制单元,其配置为根据估计单元估计的行为执行控制。
专利描述了一种信息处理装置和通过识别设备外观来链接设备的信息处理方法。所述信息处理装置包括:外观信息获取单元,其配置为获取说明设备外观特征的外观信息;发送单元,用于发送外观信息。根据这样的配置,可以通过识别设备的外观来链接设备,例如未知应用或动态改变的应用。
专利描述了一种图像处理装置,其包括存储指令的存储器,以及控制单元。控制单元配置为执行指令以检测真实空间的感兴趣对象的图像;检测对象图像相对应用户视角的方向;生成包括修改对象的图像的修改图像,修改后的对象图像的方向对应于期望的用户视角;并显示修改后的图像。
专利描述了一种包含控制单元的图像处理装置。控制单元配置为根据用户姿势操作执行生成叠加图像的控制,同时调整叠加图像的显示状态。
专利描述了一种在交互会话期间调整显示内容以补偿用户头部倾斜影响的系统和方法。用户头部倾斜使得显示内容偏离屏幕中的舒适观影区域。以多种方式确定偏移,然后调整显示图像以减少或基本消除偏移。
标记检测单元扫描多个标记的拍摄图像,并检测多个标记在拍摄图像中的二维坐标。视点位置校正单元利用二维坐标校正用户的视点位置。立体图像生成单元生成当从校正视点位置感知三维物体时获得的视差图像。
专利描述了一种利用无线网络传输角度确定图像处理目标位置的方法和系统。更具体来说,专利描述了一种在图像中分割对象的方法。