新加坡国立大学等机构联合推出EgoTwin,首次实现第一视角视频与人体动作的同步生成,解决了视角-动作对齐与因果耦合的技术难题。该框架基于扩散模型,能够生成一致且连贯的第一人称视频,推动可穿戴计算和AR应用的发展。
完成下面两步后,将自动完成登录并继续当前操作。