近日,北京大学及美国马里兰大学的学者在期刊IEEE Transactions on Visualization and Computer Graphics上发表了题目为SGaze: A Data-Driven Eye-Head Coordination Model for Realtime Gaze Prediction 的学术论文。在研究过程中运用眼球追踪的相关理论,并采用了七鑫易维VR眼动分析系统采集用户注视点信息。
研究者们建立了一种创新型数据驱动的眼-头协调模型,该模型可在无外部硬件或眼动仪的条件下,用于沉浸式高清显示虚拟现实(Virtual Reality,简称VR)头盔中实时预测用户注视点,并将其命名为“SGaze”。研究者采用七鑫易维VR眼动分析系统收集用户在不同亮度条件下VR场景中的浏览情况,随后记录数据并进行统计,探知在一定范围内注视点位置与头部旋转速度之间存在线性关系。随后“SGaze”模拟出头动与眼动之间的时间相关函数,并实现实时注视点预测。
上图展示了在不同VR场景测试时的注视点预测结果,下面一行图片对应上一行为放大版。在每个场景中,眼睛实际注视点用绿色的十字标记,蓝色的十字表示数据均值的预测结果,红色的十字代表模型的预测结果。
七鑫易维VR眼动分析系统为VR环境中记录眼动数据提供支持,可以提供3D内容创建服务及美工模型导入3D引擎服务,为研究人员提供了更加丰富的实验设计方式和途径。实验过程中,PC端屏幕可实时监控VR屏幕上的内容。此外还可提供瞳孔半径、瞳孔位置、眼睑距离、注视 等数据接口和功能,适用于VR眼动数据分析等需要更多眼部特征数据的商业应用与学术研究。
随着5G技术的日益成熟,眼球追踪与XR行业的融合创新将为专家学者提供更加方便的实验条件,有助于专家学者在学术研究上实现更大突破。同时,七鑫易维为鼓励研究者采用先进的眼动跟踪设备进行研究,制定了论文奖励制度,对论文中声明使用七鑫易维产品及服务的研究者,按照一定标准予以奖励。七鑫易维期待眼球追踪技术可以帮助更多各领域学者完成研究。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。