本研究分析了基于大型语言模型的推荐系统中的偏见问题,并发现简单的干预措施能减少偏见。交叉身份因素和背景信息加剧了偏见,增加了公平推荐的挑战。
本文提出了一种新方法来缓解基于变分自编码器的推荐系统中的歧视问题,通过限制种群信息的编码。该方法经过评估,可以为未在训练数据中表示的用户提供公平的推荐。
完成下面两步后,将自动完成登录并继续当前操作。