研究表明,顶级AI模型如GPT-4o在被“越狱”后可能指挥机器人执行危险行为。AGENTSAFE团队提出全球首个具身智能体安全评测基准,以提前发现安全漏洞。实验结果显示,当前具身智能体在安全防护方面仍然脆弱,需加强安全测试。
本研究提出了Safe-BeAl框架,以应对大型语言模型在具身智能体任务规划中的安全性挑战。研究表明,LLM智能体可能出现不安全行为,而Safe-Align方法能够有效提升安全性,安全标准提高了8.55%至15.22%,同时确保任务完成。
本研究探讨了具身智能体在动态多模态环境中表达信心的方式,提出了信心引导和执行策略,以提升信心校准能力。尽管结构化推理有助于改善校准,但在归纳推理下仍面临不确定性挑战,需要更复杂的引导方法。
Genie 2是一种基础世界模型,能够生成多种可控的3D环境,用于训练和评估具身智能体。它基于单个提示图像,支持人类或AI通过键盘和鼠标进行游戏,为未来智能体提供丰富的训练环境。
本研究探讨了具身智能体如何通过丰富的语言输入提升学习任务效果,发现多样化的语言反馈显著增强了代理的泛化能力和适应新任务的速度。
完成下面两步后,将自动完成登录并继续当前操作。