研究比较了多模态表示学习在医学中的应用,探讨通用表示的可转移性、多模态对比训练的必要性及特征粒度的影响。通过测试八种方法,使用280万图像-文本对进行训练,并在25个任务上评估。结果表明通用表示具有可转移性,多模态训练需结合细粒度特征。代码已公开。
本研究探讨了Transformer模型在多文档摘要中的性能和行为表现,发现不同特征粒度和训练策略对模型影响较大,解码器对噪声敏感性高于编码器。实验结果还发现生成摘要中的重复问题与高不确定性得分相关。
完成下面两步后,将自动完成登录并继续当前操作。