本研究提出了“误导性图表问答基准”,用于评估多模态大语言模型识别误导性图表的能力。结果表明,现有模型在识别视觉误导方面存在局限性,并提出了新方法以提高解读准确性,为理解误导性图表提供了基础。
该研究使用合成数据的方法为古代亚述文字符号生成了大规模的数据集,以此训练人工神经网络提高掌握这些古代碑文的能力。验证实该模型在处理真实场景中的能力,并证明了合成数据方法的可行性,提高了对受损碑文的解读准确性和对历史资源的知识提取。
完成下面两步后,将自动完成登录并继续当前操作。