从数学文本中微调 BERT 模型进行定义提取
原文中文,约300字,阅读约需1分钟。发表于: 。本研究使用三种预训练的 BERT 模型对数学英语 (使用 LaTeX 编写) 的 “定义提取” 任务进行微调,将其作为一个二元分类问题。通过对原始数据集 “芝加哥” 和 “TAC” 的微调和测试,以及与 Vanetik 和 Litvak 在 2021 年提出的 WFMALL 数据集的对比测试,我们发现高性能的 Sentence-BERT transformer...
本研究使用三种预训练的BERT模型对数学英语的“定义提取”任务进行微调,发现Sentence-BERT transformer模型在准确度、召回率和精确度等指标上表现最佳,且所需计算资源更少。