Light-VQA+: 光照校正的视频质量评估模型与视觉语言引导

💡 原文中文,约600字,阅读约需2分钟。
📝

内容提要

用户生成内容(UGC)视频曝光校正算法的提出解决了曝光不足的问题。基于低光视频增强的Light-VQA模型用于评估视频质量。Light-VQA+模型引入人类视觉系统的新模块,提供更准确的VEC评估。实验证明,这些模型在VEC-QA数据集和其他公共数据集上性能优于现有的VQA模型。

🎯

关键要点

  • 用户生成内容 (UGC) 视频在日常生活中越来越受欢迎。
  • UGC 视频常常面临曝光不足的问题,提出了视频曝光校正 (VEC) 算法。
  • 低光视频增强 (LLVE) 和过曝视频恢复 (OEVR) 是重要的 VEC 算法。
  • 视频质量评估 (VQA) 对于视频质量的衡量同样重要。
  • 现有的 VQA 模型主要从综合角度评估视频质量。
  • 提出了基于 LLVE-QA 训练的 Light-VQA 模型,用于评估 LLVE。
  • 扩展了 LLVE-QA 数据集为视频曝光校正质量评估 (VEC-QA) 数据集。
  • Light-VQA+ 是一种新模型,专门用于评估 VEC,使用了 CLIP 模型。
  • Light-VQA+ 引入人类视觉系统的新模块,提供更准确的评估。
  • 实验证明,Light-VQA 和 Light-VQA+ 在 VEC-QA 数据集和其他公共数据集上性能优于现有 VQA 模型。
➡️

继续阅读