该研究提出了一个系统框架,用于比较大型语言模型在化学信息学任务中的微调效果。通过统一训练方法,评估RoBERTa、BART和LLaMA模型在SMILES格式下预测分子性质的表现。分析了18种不同参数和数据集规模的模型,微调于DeepChem的六个基准任务,明确了各模型的优劣,并提供了选择适合特定应用的模型方法。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: