Benchmarking Zero-Shot Facial Emotion Annotation with Large Language Models: A Multi-Class and Multi-Frame Approach in Daily Life
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究探讨了大型语言模型(LLMs)在日常场景中自动标注人类情感的可行性。实验结果显示,LLM在七类情感分类下的平均精度约为50%,在三类分类下提高至约64%。整合多帧视频片段的策略能稍微改善标注准确率,显示LLMs在多模态环境中的应用潜力。
🎯
关键要点
- 本研究探讨了大型语言模型(LLMs)在日常场景中自动标注人类情感的可行性和性能。
- 在FERV39k数据集的DailyLife子集中进行实验,LLM在七类情感分类下的平均精度约为50%。
- 在三类情感分类下,LLM的精度提高至约64%。
- 整合多帧视频片段的策略能稍微改善标注准确率。
- 研究表明LLMs在复杂的多模态环境中具有降低标注成本的新应用潜力。
➡️