Improving the Trustworthiness of Multimodal Large Language Models by Decomposing and Leveraging Preferences from Expert Models
💡
原文英文,约100词,阅读约需1分钟。
📝
内容提要
本研究提出了DecompGen框架,通过将多模态大型语言模型(MLLMs)的响应分解为原子验证任务,并利用专家模型进行评估,自动构建偏好数据集DGPref。实验结果表明,经过偏好学习的MLLMs在可信度上显著提升,验证了该方法的有效性。
🎯
关键要点
-
本研究提出了DecompGen框架,旨在提高多模态大型语言模型(MLLMs)的可信度。
-
DecompGen通过将MLLMs的响应分解为原子验证任务,并利用专家模型进行评估,自动构建偏好数据集DGPref。
-
实验结果表明,经过偏好学习的MLLMs在可信度上显著提升,验证了DecompGen方法的有效性。
➡️