通过附加训练将特定科学知识教授给大型语言模型
原文中文,约400字,阅读约需1分钟。发表于: 。通过额外的训练,我们探索将专门的科学知识嵌入到 Llama 2 Large Language Model(LLM)中。研究结果表明,有效的知识整合需要从多个角度阅读文本,尤其是在指导性格式下。我们利用文本增强来解决专业文本稀缺的问题,包括风格转换和翻译。超参数优化被证明是至关重要的,不同尺寸的模型(7b、13b 和...
研究者通过额外训练将专业科学知识嵌入到Llama 2 Large Language Model(LLM)中。研究结果显示,有效的知识整合需要多角度阅读文本并利用文本增强来解决专业文本稀缺问题。超参数优化对不同尺寸的模型(7b、13b和70b)的额外训练至关重要。研究者构建了一个包含65,000篇科学论文的数据集,并指出将专业信息整合到LLM中的复杂性和局限性,提出了进一步改进的领域。