AI初创公司Runway推出了Gen-4视频模型,能够在多个镜头中生成一致的场景和人物。该模型允许用户通过单一参考图像生成角色和物体,提供更好的故事连贯性和控制力。用户只需描述构图,模型便能从多个角度生成一致的输出。
本研究提出HAD-Gen框架,以解决传统驾驶模型在模拟人类驾驶行为多样性方面的不足。通过聚类车辆轨迹和最大熵逆强化学习,该框架实现了更人性化的驾驶行为,实验结果显示其场景生成能力优于以往方法,目标达成率高达90.96%。
本研究提出了一种新方法,通过解耦槽注意力模块,解决了物体中心学习在不同场景下识别相同物体的难题。实验结果表明,该方法在物体识别和复杂场景生成方面表现优异,具有重要应用潜力。
介绍了一种基于扩散的场景生成架构,实现自动驾驶车辆场景生成。方法结合潜在扩散、目标检测和轨迹回归,生成代理人的姿势、方向和轨迹分布。通过地图和令牌组进行额外控制。适用于不同地理区域。
本文提出了一种名为Scenario Diffusion的基于扩散的场景生成架构,可实现可控的场景生成。该方法结合了潜在扩散、目标检测和轨迹回归,能够建模多样的交通模式,并且适用于不同的地理区域。
该文介绍了基于3D-GPT的指令驱动的3D建模框架,能高效进行自动内容创作,简化场景描述并提取参数值,与3D软件无缝集成,为未来场景生成和动画的发展提供基础。
完成下面两步后,将自动完成登录并继续当前操作。