本研究解决了多模态医学图像任务中的通用化问题,提出了一种将个性化医学与多模态通用化相结合的新方法。研究显示,学习个性化的不变表示可以在多种医学任务中实现高效的通用性和可转移性,显著提高了不同场景下的性能表现。
概括是从多个实体中提取共同特征,形成更高层次的实体,是自下而上的方法。专门化是根据特征将实体分为子实体,是自上而下的方法,将高层实体分为多个低层实体。
本研究针对自然语言处理中的偏见检测这一关键挑战,提出了GUS-Net,一种关注概括、不公与刻板印象三种偏见的创新方法。通过利用生成性人工智能和自动化代理创建综合合成数据集,GUS-Net在多标签token分类中展现出卓越的准确性和深度,显著超越了现有技术,为文本中的社会偏见检测提供了有效工具。
本文研究广义化界限,分析回归和分类任务的学习效率差异。发现广义化界限与网络参数数量成反比,强调超参数化网络的优势。同时探讨领域自适应学习、可对比学习、超参数化线性模型等相关内容。
提出了一种名为 DISGEN 的图神经网络 (GNN) 的模型非特定框架,旨在从图表示中消除大小信息,提高 GNN 的大小泛化能力,实证结果表明 DISGEN 在真实世界数据集上优于现有的模型。
使用过滤语料库训练的方法,本文研究了语言模型对于通过间接证据进行语言普适性推理的能力,并将该方法应用于 LSTM 和 Transformer 语言模型,结果显示它们对于语言普适性推理具有相同且出乎意料的良好表现。
对深度学习的广义化现象、超参数化模型、非可识别性以及归纳偏见进行研究,并针对语言模型相关的广义化度量、可迁移性和归纳偏见提出了有前景的研究方向。
本论文通过使用数据过滤和联合实体与摘要生成技术,结合微调的LED模型,改善了PubMed数据集的摘要质量,并提高了事实一致性指标。实验结果表明,经过微调的LED模型在生成论文摘要方面表现良好。
大规模视觉语言模型(VLMs)展示了对未见域数据具有强大的零样本泛化能力。为了解决适应预训练的VLMs时容易忘记以前学到的知识并降低零样本分类能力的问题,提出了一种选择性双教师知识迁移框架,通过测量双教师VLMs的特征差异来执行选择性知识蒸馏机制,以缓解灾难性遗忘并保留零样本能力。实验证明该框架对于防止灾难性遗忘和零样本退化的最新持续学习方法是有利的。
该研究调查了语言模型在代码摘要中的可解释性,结果显示语言模型的关注点与人类程序员的注意力没有显著关联,人类注意力与语言模型生成摘要质量之间也没有发现影响。研究呼吁进一步研究可解释性的语言模型和软件工程任务中的训练机制以及其他模型关注度的适用性。
该研究探讨了利用强化学习从人类反馈中对大型语言模型进行微调的方法,发现强化学习从人类反馈更好地泛化到新的输入,但降低了输出的多样性。研究结果为微调方法提供了指导,并强调了改进泛化和多样性之间的权衡的必要性。
Transformer-XL是一种新的神经架构,能够超越固定长度的依赖关系,并解决上下文破碎问题。它比普通的Transformers快1800多倍,并在短序列和长序列上表现更好。实验结果显示,Transformer-XL在多个语料库上表现优于当前最先进的结果。
GPT-3 等大语言模型展现了它们在不需要特定训练数据的情况下适应新任务的惊人能力。这一能力在诸如叙事性问题解答的场景中特别有用,那里的任务种类繁多,而可供学习的数据却相对匮乏。在这项研究中,我们探讨了这些语言模型是否能将它们的零样本推理才能延伸到多媒体内容中的长篇多模态叙事,如戏剧、电影和动画,故事在其中发挥着核心作用。我们提出了一种名为“Long Story...
该论文提出了一种用于强化学习中学习动态全局模型的方法,通过学习本地动态的上下文潜向量和条件预测下一个状态来实现此目的。该方法在各种模拟机器人控制任务中实现了优异的泛化能力,超过了现有的强化学习方案。
该文章探索了Transformer模型的设计空间,发现一些设计决策对模型的归纳偏差有很大影响。通过这些决策,可以显著提高模型的组合泛化能力,并在各种复合任务中实现了比文献报道更好的泛化结果。
今天是2021年06月28日,广东中考第三天 这也代表着初中三年的结束
完成下面两步后,将自动完成登录并继续当前操作。