无参考单块偏好优化与胜负比率
原文中文,约300字,阅读约需1分钟。发表于: 。优先对齐算法、受监督的微调 (SFT)、单体化比值偏好优化算法 (ORPO)、最新的语言模型和模型检查点
提出Preference Ranking Optimization(PRO)策略,将人类偏好排名应用于语言模型生成的响应的概率排名,实现语言模型与人类价值观的对齐。PRO优于现有对齐算法,与ChatGPT和人类响应相当。长、多样化、高质量的偏好排名序列稳定提高语言模型与人对其的对齐性能。
优先对齐算法、受监督的微调 (SFT)、单体化比值偏好优化算法 (ORPO)、最新的语言模型和模型检查点
提出Preference Ranking Optimization(PRO)策略,将人类偏好排名应用于语言模型生成的响应的概率排名,实现语言模型与人类价值观的对齐。PRO优于现有对齐算法,与ChatGPT和人类响应相当。长、多样化、高质量的偏好排名序列稳定提高语言模型与人对其的对齐性能。