Light-VQA+: 光照校正的视频质量评估模型与视觉语言引导
💡
原文中文,约600字,阅读约需2分钟。
📝
内容提要
用户生成内容(UGC)视频曝光校正算法的提出解决了曝光不足的问题。基于低光视频增强的Light-VQA模型用于评估视频质量。Light-VQA+模型引入人类视觉系统的新模块,提供更准确的VEC评估。实验证明,这些模型在VEC-QA数据集和其他公共数据集上性能优于现有的VQA模型。
🎯
关键要点
- 用户生成内容 (UGC) 视频在日常生活中越来越受欢迎。
- UGC 视频常常面临曝光不足的问题,提出了视频曝光校正 (VEC) 算法。
- 低光视频增强 (LLVE) 和过曝视频恢复 (OEVR) 是重要的 VEC 算法。
- 视频质量评估 (VQA) 对于视频质量的衡量同样重要。
- 现有的 VQA 模型主要从综合角度评估视频质量。
- 提出了基于 LLVE-QA 训练的 Light-VQA 模型,用于评估 LLVE。
- 扩展了 LLVE-QA 数据集为视频曝光校正质量评估 (VEC-QA) 数据集。
- Light-VQA+ 是一种新模型,专门用于评估 VEC,使用了 CLIP 模型。
- Light-VQA+ 引入人类视觉系统的新模块,提供更准确的评估。
- 实验证明,Light-VQA 和 Light-VQA+ 在 VEC-QA 数据集和其他公共数据集上性能优于现有 VQA 模型。
🏷️
标签
➡️