采用了七鑫易维VR眼动分析系统采集用户注视点信息。
近日,北京大学及美国马里兰大学的学者在期刊IEEE Transactions on Visualization and Computer Graphics上发表了题目为SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction 的学术论文。在研究过程中运用眼球追踪的相关理论,并采用了七鑫易维VR眼动分析系统采集用户注视点信息。
研究者们建立了一种创新型数据驱动的眼-头协调模型,该模型可在无外部硬件或眼动仪的条件下,用于沉浸式高清显示虚拟现实(Virtual Reality,简称VR)头盔中实时预测用户注视点,并将其命名为“SGaze”。研究者采用七鑫易维VR眼动分析系统收集用户在不同亮度条件下VR场景中的浏览情况,随后记录数据并进行统计,探知在一定范围内注视点位置与头部旋转速度之间存在线性关系。随后“SGaze”模拟出头动与眼动之间的时间相关函数,并实现实时注视点预测。
上图展示了在不同VR场景测试时的注视点预测结果,下面一行图片对应上一行为放大版。在每个场景中,眼睛实际注视点用绿色的十字标记,蓝色的十字表示数据均值的预测结果,红色的十字代表模型的预测结果。
七鑫易维VR眼动分析系统为VR环境中记录眼动数据提供支持,可以提供3D内容创建服务及美工模型导入3D引擎服务,为研究人员提供了更加丰富的实验设计方式和途径。实验过程中,PC端屏幕可实时监控VR屏幕上的内容。此外还可提供瞳孔半径、瞳孔位置、眼睑距离、注视深度等数据接口和功能,适用于VR眼动数据分析等需要更多眼部特征数据的商业应用与学术研究。
随着5G技术的日益成熟,眼球追踪与XR行业的融合创新将为专家学者提供更加方便的实验条件,有助于专家学者在学术研究上实现更大突破。同时,七鑫易维为鼓励研究者采用先进的眼动跟踪设备进行研究,制定了论文奖励制度,对论文中声明使用七鑫易维产品及服务的研究者,按照一定标准予以奖励。七鑫易维期待眼球追踪技术可以帮助更多各领域学者完成研究。