北大对齐小组开发的“Align Anything”框架支持多模态对齐,包括文本、图像、音频和视频。该框架实现多种对齐算法,并开源全模态人类偏好数据集,提升模型与人类意图的对齐。通过微调Llama-3.2等模型,增强了指令跟随和识别能力。Align Anything提供模块化和可扩展的工具,支持多模态模型的训练和评估,推动全模态大模型的发展。
完成下面两步后,将自动完成登录并继续当前操作。