Benchmarking Zero-Shot Facial Emotion Annotation with Large Language Models: A Multi-Class and Multi-Frame Approach in Daily Life

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究探讨了大型语言模型(LLMs)在日常场景中自动标注人类情感的可行性。实验结果显示,LLM在七类情感分类下的平均精度约为50%,在三类分类下提高至约64%。整合多帧视频片段的策略能稍微改善标注准确率,显示LLMs在多模态环境中的应用潜力。

🎯

关键要点

  • 本研究探讨了大型语言模型(LLMs)在日常场景中自动标注人类情感的可行性和性能。
  • 在FERV39k数据集的DailyLife子集中进行实验,LLM在七类情感分类下的平均精度约为50%。
  • 在三类情感分类下,LLM的精度提高至约64%。
  • 整合多帧视频片段的策略能稍微改善标注准确率。
  • 研究表明LLMs在复杂的多模态环境中具有降低标注成本的新应用潜力。
➡️

继续阅读