多模态人工智能正向全模态大模型发展,但评测体系滞后。美团LongCat团队提出UNO-Bench,提供高质量评测基准,有效评估模型的单模态与全模态能力,揭示“组合定律”,推动AI行业发展。
美团LongCat团队发布了VitaBench,这是一个针对大模型智能体的评测基准,涵盖外卖、餐饮和旅游等真实场景。VitaBench构建了66个工具的交互环境,量化了推理、工具使用和用户交互的复杂性。研究显示,当前模型在复杂任务中的成功率仅为30%,反映出智能体与实际应用需求之间的差距。该基准旨在推动智能体在真实生活中的研发与应用。
近期,AI技术迅速发展,但模型在指令遵循方面表现不一。美团M17团队推出Meeseeks评测基准,专注于评估模型的指令遵循能力。评测结果显示,o3-mini系列模型表现优异,Claude系列紧随其后,而DeepSeek和GPT-4o排名较低。Meeseeks通过细化评测框架和多轮纠错模式,揭示了模型的自我纠错潜力,为未来优化提供了方向。
DeepMind创始人哈萨比斯在访谈中表示,Genie 3能够实时生成虚拟世界,推动AGI的发展。他提到智能体在推理和规划能力上仍存在不足,模型表现不一。未来需要更完善的评测基准,以提升AI的整体能力和一致性。
MMBench-Video是一个新的视频理解评测基准,旨在解决现有基准在长视频和复杂任务评估中的不足。该基准涵盖多种视频类型,采用高质量人工标注,评估模型的时序理解能力。通过对多模态大模型的测试,MMBench-Video提高了评估精度,为视频理解研究提供了重要工具。
北京大学与阿里巴巴联合研发了数学竞赛评测基准Omni-MATH,收录了4428道竞赛级别问题,涵盖33个子领域,分为10个难度级别。排行榜上o1-mini表现最佳,平均分比o1-preview高8%。Omni-MATH特点是可靠的答案验证、清晰合理的难度分类和广泛的题目类型。数据来源包括比赛题目、题解和数学网站Art of Problem Solving。评测集经过细致调研和人工筛选,题解转换成Latex格式并人工检查答案准确性。团队还开发了开源答案验证器Omni-Judge。
本文介绍了新的评测基准YTSeg,重点是非结构化语音内容。提出了高效的层次分割模型MiniSeg,并对比了现有的基准方法。还将文本分割概念扩展到实际的“智能章节切割”任务中,包括非结构化内容的分割、生成有意义的片段标题以及模型的潜在实时应用。
本文介绍了评测基准YTSeg和高效的层次分割模型MiniSeg,重点是非结构化的语音内容。还扩展了文本分割概念到实际的“智能章节切割”任务中,包括非结构化内容的分割、生成有意义的片段标题以及模型的潜在实时应用。
完成下面两步后,将自动完成登录并继续当前操作。