日前,来自中国北京大学、香港大学及美国马里兰大学的研究团队发布了
该论文发布于IEEETVCG(IEEETransactionsonVisualizationandComputerGraphics)期刊,以北京大学图形与交互技术实验室的ZhimingHu为第一作者、ShengLi和GuopingWang为通讯作者。
TVCG作为计算机图形学和可视化领域的顶级期刊之一,在国际上有着重要的学术影响力,该论文的发布无疑推动了眼动分析领域的又一次进步。
研究团队采用七鑫易维VR眼动分析系统对动态虚拟场景中的用户注视行为进行了创新性的分析,提出了一种基于CNN的算法模型DGaze,用于在虚拟现实头盔(HMD)应用中进行注视点预测。
DGaze模型结合了运动物体位置序列,头部速度序列和场景内容的显著性特征来预测用户的注视点位置。该模型不仅可以估算实时的注视点位置,还可以预测一段时间后的注视点位置,同时拥有更好的算法性能。在实时估算方面,以角距离作为评估指标时,DGaze模型的估算准确度在动态场景中比现有模型提高了22.0%,在静态场景中则提高了9.5%。
学者们还提出了一种名为DGaze_ET的模型变体,基于七鑫易维眼动仪,收集眼动仪在过去时刻的高精度追踪数据,以此优化模型的注视点预测算法,进而提升模型预测的准确度。
在现有的眼动仪中,主要功能是测量当前的视线方向,不能直接对使用者一段时间之后的视线方向进行预测。因此不难想象,该注视点预测模型对于眼动追踪领域的技术革新和产品升级有着划时代的意义。
七鑫易维VR眼动分析系统为本次科研工作提供了可靠的数据支撑,不仅能够精确记录瞳孔半径、瞳孔位置、眼睑距离、注视深度、注视点位置等眼动数据指标,还可以提供3D内容创建及美工模型导入3D引擎服务,助力实现更加丰富的实验设计方式和途径。
来源: