本文介绍了一种新的生成网络SegAttnGAN,利用附加的分割信息进行文本到图像综合任务,相较于之前的技术,该模型可以生成更真实和准确的图像。在CUB和Oxford-102数据集上获得了高分数,并测试了自我关注SegAttnGAN,结果也很好。该模型可用于文本到图像综合任务。
该研究提出了两个新的损失函数,用于解决文本到图像综合中的对齐问题。实验证明,该方法可以轻松有效地集成到现有方法中,并提高生成图像与文本提示之间的对齐度。
本研究提出两个新的损失函数,用于在采样过程中重新聚焦注意力图,解决多个对象、属性和空间组合的情况下现有文本到图像综合方法无法精确遵循文本提示的问题。通过实验验证,该方法可以轻松有效地集成到现有的文本到图像方法中,并提高生成图像与文本提示之间的对齐度。
完成下面两步后,将自动完成登录并继续当前操作。