伊利诺伊大学的研究人员开发了InstructG2I,通过图上下文感知扩散模型解决多模态属性图在图像生成中的挑战。该方法使用Graph-QFormer架构和个性化PageRank进行图采样,生成符合文本提示的图像。在多个数据集测试中,InstructG2I在CLIP和DINOv2得分上优于基线模型。
我们提出了一个框架,通过潜在图扩散(LGD)使用单一模型解决节点、边和图级别的生成、回归和分类任务。LGD将图结构和特征嵌入潜在空间,通过编码器解码进行生成,并通过交叉注意机制实现条件生成,将预测任务转化为生成任务。实验显示,该框架在生成和回归任务中表现出色。
完成下面两步后,将自动完成登录并继续当前操作。