💡
原文中文,约3200字,阅读约需8分钟。
📝
内容提要
腾讯 AI Lab 提出的 Interformer 模型基于 Graph-Transformer 架构,旨在改进蛋白质-配体对接和亲和力预测。该模型通过交互感知混合密度网络捕获非共价相互作用,提升了预测性能和可解释性。研究表明,Interformer 在多个基准测试中表现优异,成功识别高效小分子,展示了其在药物设计中的潜力。
🎯
关键要点
- 腾讯 AI Lab 提出的 Interformer 模型基于 Graph-Transformer 架构,旨在改进蛋白质-配体对接和亲和力预测。
- Interformer 通过交互感知混合密度网络捕获非共价相互作用,提升了预测性能和可解释性。
- 该模型引入负采样策略,有助于有效校正相互作用分布以进行亲和力预测。
- Interformer 在多个基准测试中表现优异,成功识别高效小分子,展示了其在药物设计中的潜力。
- 蛋白质-配体对接和亲和力预测是药物发现过程中的重要组成部分。
- 现有深度学习模型往往忽视蛋白质和配体原子之间非共价相互作用的建模。
- Interformer 模型通过相互作用感知混合密度网络模拟非共价相互作用,关注氢键和疏水相互作用。
- 该模型基于 Graph-Transformer 框架,表现优于基于 GNN 的模型。
- Interformer 通过蒙特卡洛采样生成前 k 个候选配体构象,并通过自注意力机制收集绑定姿势信息。
- 在 Posebusters 基准上,Interformer 实现了 84.09% 的准确率,显示出强大的泛化能力。
- 该模型在真实世界药物开发中成功识别出高效小分子,证明了其实用价值。
- 未来研究目标是扩展 Interformer 的应用到更广泛的生物挑战中,包括蛋白质-蛋白质和蛋白质-核酸相互作用。
➡️