LLM 驱动的机器人存在歧视、暴力和非法行为风险
原文中文,约500字,阅读约需2分钟。发表于: 。人机交互 (HRI) 和人工智能 (AI) 社区提出了大型语言模型(LLMs)作为机器人任务的一个有前景的资源,然而最近的研究引发了对 LLMs 在真实世界机器人实验和应用中产生歧视性结果和不安全行为的担忧。为了解决这些问题,我们在几个高评级的 LLMs 上进行了基于 HRI...
最近的研究发现,大型语言模型(LLMs)在机器人任务中可能产生歧视性结果和不安全行为。研究人员对几个高评级的LLMs进行了歧视和安全评估,发现它们在面对多样性身份特征的人时会产生偏见输出,并且在自由语言输入环境中不能安全行动。需要对LLMs进行风险评估和保证,以确保机器人的安全和公正运行。