漂移:基于隐含用户偏好的解码时间个性化对齐

📝

内容提要

本研究解决了大型语言模型在个性化对齐中的长期挑战,提出了漂移(Drift)框架,通过隐含用户偏好在解码时进行个性化处理。与传统的人类反馈强化学习(RLHF)方法相比,漂移在无需训练的大规模示例下,仅依赖几十个示例,实现了更高效且可解释的个性化生成,实验结果表明其在准确性和计算效率上均优于RLHF基准。

➡️

继续阅读