Improving the Trustworthiness of Multimodal Large Language Models by Decomposing and Leveraging Preferences from Expert Models

💡 原文英文,约100词,阅读约需1分钟。
📝

内容提要

本研究提出了DecompGen框架,通过将多模态大型语言模型(MLLMs)的响应分解为原子验证任务,并利用专家模型进行评估,自动构建偏好数据集DGPref。实验结果表明,经过偏好学习的MLLMs在可信度上显著提升,验证了该方法的有效性。

🎯

关键要点

  • 本研究提出了DecompGen框架,旨在提高多模态大型语言模型(MLLMs)的可信度。

  • DecompGen通过将MLLMs的响应分解为原子验证任务,并利用专家模型进行评估,自动构建偏好数据集DGPref。

  • 实验结果表明,经过偏好学习的MLLMs在可信度上显著提升,验证了DecompGen方法的有效性。

➡️

继续阅读