该研究提出了一种新颖的非自回归框架,用于口音转换,通过学习口音无关的语言表示并使用它们来转换源语音中的口音,从而保留说话者的身份。研究还调查了在我们提出的框架中的本地数据和不同声学特征的预训练策略的有效性,并使用主客观度量来全面评估了我们方法的性能。评估结果突出了预训练策略和丰富的语义特征的益处,显著提高了音频质量和可理解性。
该研究提出了一种新颖的非自回归框架用于口音转换,通过学习口音无关的语言表示并使用它们来转换源语音中的口音,从而保留说话者的身份。研究还调查了在我们提出的框架中的本地数据和不同声学特征的预训练策略的有效性,并使用主客观度量来全面评估了我们方法的性能。评估结果突出了预训练策略和丰富的语义特征的益处,显著提高了音频质量和可理解性。
本文介绍了一种使用层次强化学习来增强语言表示的方法,通过整合知识图谱中的关系三元组到语言模型中,提升自然语言理解任务的性能。
该文介绍了一种基于图到图的 Transformer 模型架构,将图的边作为输入用于注意力权重计算,并使用类似于注意力的函数预测图中的边,从而将显式图集成到预训练的 Transformer 模型中学习出的潜在图中。
完成下面两步后,将自动完成登录并继续当前操作。