本研究提出了一种创新的零样本迁移学习框架T3,用于解决长文本摘要问题。通过在辅助任务上训练基线LLM,提升目标任务表现。结果表明,T3在多个数据集上的ROUGE、BLEU和Factscore指标显著提高,展示了其在多任务中的潜力。
通过ZeroG框架扩展了零样本迁移学习到图领域,解决了特征不对齐、标签空间不匹配和负迁移等挑战。使用语言模型编码节点属性和类别语义,确保数据集间的一致特征维度。通过子图采样模块丰富子图的语义和结构信息,采用轻量级微调策略降低过拟合风险。结果显示ZeroG在跨数据集零样本迁移方面非常有效,为图基础模型的发展开辟了新的路径。在Pubmed上实现了与半监督学习相媲美的结果。
完成下面两步后,将自动完成登录并继续当前操作。