该文章介绍了一个新的数据集RTM,用于解决文本伪造检测的问题。作者提出了一个强大的基线解决方案,采用一致性感知的聚合中心和门控交叉邻域注意融合模块进行多模态信息融合,并采用被篡改-真实对比学习模块来丰富特征表示的差异。该框架在手动和总体篡改的定位性能上有显著提高。作者希望推动现实世界文本篡改检测的进展。
为了解决合成篡改无法充分复制真实世界篡改属性的问题,研究人员提出了一个包含14250个文本图像的RTM数据集,其中包括手动和自动篡改的图像。他们提出了一个基线解决方案,采用一致性感知的聚合中心和门控交叉邻域注意融合模块,以及被篡改-真实对比学习模块,提高了文本伪造检测的性能。这个框架可以扩展到其他双流体系结构,对手动和总体篡改的定位性能分别提高了7.33%和6.38%。他们的研究旨在推动现实世界文本篡改检测的进展。
完成下面两步后,将自动完成登录并继续当前操作。