本文研究了在自我消耗循环中训练生成模型的新挑战,通过连续的模型生成从先前一代模型生成的真实和合成数据的混合进行递归训练。研究发现,在混合训练数据集大小足够大或真实数据比例足够大的条件下,可以有效控制模型生成的合成数据分布与原始真实数据分布之间的总变异距离。同时,研究还提供了关于在自我消耗循环中最佳早停策略的细微见解。
正在访问的资源需要验证您是否真人。
或在微信中搜索公众号“小红花技术领袖”并关注
第二步:在公众号对话中发送验证码: