预训练 Transformer 中自注意力的因果解释
原文中文,约400字,阅读约需1分钟。发表于: 。我们提出了 Transformer...
该文提出了一种基于Transformer神经网络结构的自注意力因果解释机制,用于学习输入符号之间的条件独立关系,实现零样本因果发现。通过情感分类和推荐任务的实验结果进行了演示。
我们提出了 Transformer...
该文提出了一种基于Transformer神经网络结构的自注意力因果解释机制,用于学习输入符号之间的条件独立关系,实现零样本因果发现。通过情感分类和推荐任务的实验结果进行了演示。