从化学反应知识中学习上下文分子表示

💡 原文中文,约200字,阅读约需1分钟。
📝

内容提要

本文使用Transformer结构(BERT)学习分子表示,通过预训练和领域相关性提高了模型MolBert在基准数据集上的性能,具有良好的药物发现应用前景。

🎯

关键要点

  • 本文采用 Transformer 结构,具体为 BERT,来学习灵活高质量的分子表示。
  • 通过预训练使用不同组合的自监督任务,提高了所学表示的领域相关性。
  • 最终提高了模型 MolBert 在基准数据集上的性能。
  • MolBert 显示出在药物发现方面具有良好的应用前景。
➡️

继续阅读