大型语言模型作为上下文化学物质学习器
原文中文,约400字,阅读约需1分钟。发表于: 。大型语言模型(LLM)在生物化学任务中表现出卓越的性能,特别是分子字幕翻译任务,在分子和自然语言文本之间建立联系。然而,先前的方法在将 LLM 调整到分子 - 字幕翻译任务中需要额外的领域特定预训练阶段,分子和文本空间之间的对齐性较弱,或者对 LLM 的规模有严格要求。为了解决这些挑战,我们提出了一种新的范式:上下文分子适应(ICMA),允许 LLM 通过上下文示例来学习分子 -...
大型语言模型(LLM)在生物化学任务中表现出卓越性能,特别是在分子字幕翻译任务中。通过上下文分子适应(ICMA)范式,LLM能够学习分子-文本对应关系,实现最先进的性能,无需额外训练语料库和复杂结构。