从化学反应知识中学习上下文分子表示
💡
原文中文,约200字,阅读约需1分钟。
📝
内容提要
本文使用Transformer结构(BERT)学习分子表示,通过预训练和领域相关性提高了模型MolBert在基准数据集上的性能,具有良好的药物发现应用前景。
🎯
关键要点
- 本文采用 Transformer 结构,具体为 BERT,来学习灵活高质量的分子表示。
- 通过预训练使用不同组合的自监督任务,提高了所学表示的领域相关性。
- 最终提高了模型 MolBert 在基准数据集上的性能。
- MolBert 显示出在药物发现方面具有良好的应用前景。
🏷️
标签
➡️