近期研究在自然语言到SQL翻译方面取得进展,但模型在实际应用中的可靠性仍需提高。为此,提出了TrustSQL基准系统,评估模型在单数据库和跨数据库下的可靠性。任务要求模型预测SQL或选择不预测。研究探索了独立模型集成和统一模型优化的方法。实验显示,没有一种方法能超越放弃回答所有问题的基准性能。
研究人员提出了基准系统ComperDial,用于开放领域对话系统的训练和评估。系统包括1,485个对话中的10,395个对话转折的人工评分响应。研究人员还开发了自动评估度量标准CPDScore,与人类判断相关。ComperDial和CPDScore已发布给社区,加速开放领域对话系统自动评估度量标准的开发。
该研究提出了一个新的基准系统GRASP,用于评估视频多模式大型语言模型(LLMs)的语言理解和物理理解能力。研究发现当前模型在语言理解和直观物理方面存在重大缺陷,强调了基准系统对监测未来模型进展的重要性。
完成下面两步后,将自动完成登录并继续当前操作。