喵ID:WQ1Ea4免责声明

Multi-stage Optimization for Multi-body Motion Segmentation

基本信息

DOI:
--
发表时间:
2003
期刊:
影响因子:
--
通讯作者:
K. Kanatani;Y. Sugaya
中科院分区:
其他
文献类型:
--
作者: K. Kanatani;Y. Sugaya研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

Many techniques have been proposed for separating feature point trajectories tracked through a video sequence into independent motions, but objects are usually assumed to undergo general 3-D motions. As a result, the separation accuracy considerably deteriorates in realistic video sequences in which object motions are nearly degenerate. In this paper, we introduce unsupervised learning assuming degenerate motions followed by unsupervised learning assuming general 3-D motions. This multi-stage optimization allows us to not only separate simple motions that we frequently encounter with high precision but also preserve the high performance for considerably general 3-D motions. Doing simulations and real video experiments, we demonstrate that our method is superior to all existing methods.
针对将视频序列中跟踪到的特征点轨迹分离为独立运动,人们已经提出了许多技术,但通常假定物体进行一般的三维运动。结果,在物体运动近乎退化的实际视频序列中,分离精度会大幅下降。在本文中,我们引入了假定退化运动的无监督学习,然后是假定一般三维运动的无监督学习。这种多阶段优化使我们不仅能够高精度地分离我们经常遇到的简单运动,而且对于相当一般的三维运动也能保持高性能。通过模拟和真实视频实验,我们证明我们的方法优于所有现有方法。
参考文献(18)
被引文献(69)

数据更新时间:{{ references.updateTime }}

关联基金

Detecting Correspondences between Video Image Frames and Upgrading Scene Analysis Using Them
批准号:
15500113
批准年份:
2003
资助金额:
2.43
项目类别:
Grant-in-Aid for Scientific Research (C)
K. Kanatani;Y. Sugaya
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓