该文介绍了一种新的密集视频字幕框架,通过建模视频中事件的时间依赖性和利用先前事件的视觉和语言上下文来实现连贯的叙述。该框架由事件序列生成网络和序列视频字幕网络组成,利用强化学习进行训练,并在事件和剧集两个级别上进行两级奖励以实现更好的上下文建模。在 ActivityNet Captions 数据集上,该方法表现出色。
完成下面两步后,将自动完成登录并继续当前操作。