本文追溯了大语言模型(LLM)评估的历史轨迹,强调了对统一评估体系的迫切需求,呼吁人工智能社区共同解决LLM评估的挑战。
研究发现,基于对话的语言模型ChatGPT中的亵渎问题会因为分配假想人物角色而增加,存在歧视性偏见。研究呼吁人工智能社区重新思考安全防护措施,开发更好的技术,实现强大、安全和值信赖任的AI系统。
本文追溯了大语言模型评估的历史轨迹,强调了对统一评估体系的迫切需求。作者主张在评估方法上进行定性转变,呼吁人工智能社区共同解决大语言模型评估的挑战。
完成下面两步后,将自动完成登录并继续当前操作。