KoDialogBench:韩语对话基准测试用于评估语言模型的对话理解能力
💡
原文中文,约500字,阅读约需2分钟。
📝
内容提要
研究人员提出了新的韩语基准KMMLU,包含35,030个专家级多项选择题,涵盖人文学科到STEM学科。测试26个LLM模型,最好的公开模型在KMMLU上准确率为50.54%,低于人类平均表现62.6%。研究人员呼吁改进韩语LLMs,并将KMMLU整合到EleutherAI的语言模型评估工具中。
🎯
关键要点
- 研究人员提出了新的韩语基准KMMLU,包含35,030个专家级多项选择题,涵盖人文学科到STEM学科。
- KMMLU收集了来自原始韩语考试的问题,捕捉了韩语的语言和文化方面。
- 测试了26个公开和专有LLM模型,发现有显著的改进空间。
- 最好的公开模型在KMMLU上的准确率为50.54%,低于人类平均表现62.6%。
- 当前适用的LLMs,如Polyglot-Ko,表现较差。
- 即使是最强大的专有LLMs,如GPT-4和HyperCLOVA X,准确率也仅为59.95%和53.40%。
- 研究人员呼吁改进韩语LLMs,并将KMMLU整合到EleutherAI的语言模型评估工具中。
➡️