最近的研究发现,大型语言模型(LLMs)在机器人任务中可能产生歧视性结果和不安全行为。研究人员对几个高评级的LLMs进行了歧视和安全评估,发现它们在面对多样性身份特征的人时会产生偏见输出,并且在自由语言输入环境中不能安全行动。需要对LLMs进行风险评估和保证,以确保机器人的安全和公正运行。
完成下面两步后,将自动完成登录并继续当前操作。