通过交互式虚拟现实游戏在复合空间中探索情绪
原文中文,约300字,阅读约需1分钟。发表于: 。通过使用交互式虚拟现实(VR)游戏和采集多模态数据(自我报告、生理和面部信号),我们使用机器学习方法确定了每个组成部分对情绪区分的独特贡献,并发现至少需要五个维度来表示我们的数据集中情绪的变化。这些发现对于在情绪研究中使用 VR 环境以及情绪识别中生理信号的作用具有重要意义。
该研究使用瞳孔测量的虚拟现实情绪识别方法,通过分析虚拟现实头戴设备对视觉和听觉刺激的瞳孔直径响应,提取关键特征并应用集成学习技术,将准确率从84.9%提升至98.8%。研究结果为进一步发展沉浸式交互虚拟现实环境以及虚拟触觉技术打开了新的可能性。