喵ID:B1aG71免责声明

Live Demonstration: Unsupervised Event-Based Learning of Optical Flow, Depth and Egomotion

现场演示:基于事件的无监督光流、深度和自我运动学习

基本信息

DOI:
--
发表时间:
2019
期刊:
2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW)
影响因子:
--
通讯作者:
Kostas Daniilidis
中科院分区:
文献类型:
--
作者: A. Z. Zhu;Liangzhe Yuan;Kenneth Chaney;Kostas Daniilidis研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

We propose a demo of our work, Unsupervised Event-based Learning of Optical Flow, Depth and Egomotion, which will also appear at CVPR 2019. Our demo consists of a CNN which takes as input events from a DAVIS-346b event camera, represented as a discretized event volume, and predicts optical flow for each pixel in the image. Due to the generalization abilities of our network, we are able to predict accurate optical flow for a very wide range of scenes, including for very fast motions and challenging lighting.
我们提议展示我们的研究成果——基于无监督事件的光流、深度和自我运动学习,该成果也将在2019年计算机视觉与模式识别会议(CVPR)上亮相。我们的演示包含一个卷积神经网络(CNN),它以DAVIS - 346b事件相机输出的事件作为输入,这些事件以离散化的事件体表示,该网络可预测图像中每个像素的光流。由于我们网络的泛化能力,我们能够针对非常广泛的场景预测出精确的光流,包括极快速的运动场景以及具有挑战性的光照场景。
参考文献
被引文献

数据更新时间:{{ references.updateTime }}

Kostas Daniilidis
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓