非参数语境关系学习用于语义视频目标分割
原文中文,约400字,阅读约需1分钟。发表于: 。提出了一种新颖的方法,用于建模视频中的语义上下文关系。该基于图的模型能够学习和传播更高层次的空间 - 时间上下文,从而促进本地区域的语义标记。在具有非参数视角的背景线索中引入了基于范例的概念,其中对象假设隐含的关系在区域的相似性图上进行编码。通过学习和传播上下文关系,估计所有未标记的本地区域之间的成对上下文关系。我们的算法将学习到的上下文集成到具有成对势函数的条件随机场 (CRF)...
该研究提出了一种新的方法,通过基于图的模型学习和传播视频中的语义上下文关系,提高本地区域的语义标记。该方法引入基于范例的概念,编码对象之间的隐含关系。通过学习和传播上下文关系,估计未标记的本地区域之间的成对上下文关系,并将学习到的上下文集成到条件随机场中,推断每个区域的语义标签。实验结果表明,该方法在YouTube-Objects数据集上优于最先进的方法。