本研究提出了自我纠正对抗训练框架LIMIT,旨在提升中文非自然文本纠正的效果,减少模型推理阶段的不一致性错误,超越现有技术水平。
本研究使用多语言BERT作为编码器,将n-gram信息融入词表示学习中,提出了一种中文文本到可视化的数据集。实验结果表明该数据集具有挑战性,值得进一步研究。
完成下面两步后,将自动完成登录并继续当前操作。