本研究提出了一种局部反事实生成方法,旨在解决基础模型在下游任务中的社会偏见问题。通过自动遮罩和引导修复,显著提升了生成性别反事实的视觉和语义保真度,并在多个指标上实现了偏见减少,为构建平衡数据集提供了框架。
本研究提出了一种新的反事实生成框架,形式化语言模型,揭示了反事实推理在干预中的补充作用及潜在副作用。
本文介绍了一种新颖的多步骤管道,利用反事实生成自然语言解释,帮助用户理解如何通过改变决策因素来改进分类器的输出。实验结果显示该方法在与反事实一致性和内容质量方面具有良好的表现,展示了其在可解释人工智能领域的潜在应用价值。
该研究探讨了大型语言模型(LLMs)在反事实生成和数据增强方面的能力。LLMs在反事实生成方面非常有效,但在某些复杂任务上表现欠佳。同时,研究证明了LLMs可能在缺乏合理演示的情况下生成合理的反事实。因此,基于LLMs进行数据增强是非常有前景的研究和应用方向。
完成下面两步后,将自动完成登录并继续当前操作。