本研究提出了一种pix2pix-zeroCon方法,旨在解决文本提示与参考图像内容保留不足的问题。通过补丁级对比损失,自动确定编辑方向,确保生成图像的内容和结构精准保留。实验结果表明,该方法在图像转换任务中优于现有模型。
Diffusion是一种新的开放域个性化图像生成模型,通过一个参考图像生成单一或多个主体。它使用自动数据标注工具和LAION-Aesthetics数据集构建了大规模数据集。通过融合文本和图像语义,以及粗粒度位置和细粒度参考图像控制,最大化主体的准确性和一般化能力。采用注意力控制机制支持多主体生成。在单一、多个和人类定制的图像生成方面优于其他框架。
该文章介绍了一种基于大规模扩散生成模型的文本条件图像编辑方法,允许用户通过参考图像控制编辑结果的特征,提高用户自由度。作者提出了一种名为SpecRef的快速基准方法,并通过典型的编辑任务评估了其性能。
本研究提出了一种新的染色标准化方法,通过使用多个参考图像增强染色变异的鲁棒性,实验证明该方法在自动核分割中取得了更好的结果。
本文研究了罕见皮肤疾病的挑战,通过少样本学习和迁移学习方法,在有限的参考图像和患者数量下,对传统和故事性的训练方法进行了评估和改进。结果显示显著的性能提升。
Adobe在Photoshop中添加了新的生成AI工具,使用参考图像来激发AI生成的输出。这些工具将在今年晚些时候正式推出。
该研究提出了一种新的高保真图像超分辨率方法,使用参考图像和双摄像头超分辨率。通过空间对齐操作和自我监督的领域自适应策略,该方法在评估和比较方面优于现有最优方法。
本文介绍了使用TensorFlow实现风格迁移的方法,生成具有参考图像风格的新图像。同时提供了代码实现和应用于基于ESP32-S3的风格迁移相机的方法。
该文介绍了首个端到端网络,用于基于示例的视频着色,并保持参考风格的时间一致性。通过循环框架统一语义对应和颜色传递步骤,利用参考图像来引导每一帧的着色,减少传播误差,并通过时间一致性损失强制协同着色历史。实验结果表明,该方法在定量和定性方面优于现有技术,生成稳定且逼真的视频。
完成下面两步后,将自动完成登录并继续当前操作。