喵ID:HWhfmt免责声明

Multi-Modal Geometric Learning for Grasping and Manipulation

基本信息

DOI:
10.1109/icra.2019.8794233
发表时间:
2019-01-01
期刊:
2019 INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)
影响因子:
--
通讯作者:
Allen, Peter
中科院分区:
其他
文献类型:
Proceedings Paper
作者: Watkins-Valls, David;Varley, Jacob;Allen, Peter研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

This work provides an architecture that incorporates depth and tactile information to create rich and accurate 3D models useful for robotic manipulation tasks. This is accomplished through the use of a 3D convolutional neural network (CNN). Offline, the network is provided with both depth and tactile information and trained to predict the object's geometry, thus filling in regions of occlusion. At runtime, the network is provided a partial view of an object. Tactile information is acquired to augment the captured depth information. The network can then reason about the object's geometry by utilizing both the collected tactile and depth information. We demonstrate that even small amounts of additional tactile information can be incredibly helpful in reasoning about object geometry. This is particularly true when information from depth alone fails to produce an accurate geometric prediction. Our method is benchmarked against and outperforms other visual-tactile approaches to general geometric reasoning. We also provide experimental results comparing grasping success with our method.
这项工作提供了一种架构,该架构融合了深度和触觉信息,以创建对机器人操作任务有用的丰富且准确的3D模型。这是通过使用3D卷积神经网络(CNN)实现的。在离线状态下,该网络被提供深度和触觉信息,并接受训练以预测物体的几何形状,从而填补遮挡区域。在运行时,该网络被提供一个物体的局部视图。获取触觉信息以增强所捕获的深度信息。然后,该网络可以通过利用所收集的触觉和深度信息来推断物体的几何形状。我们证明,即使是少量的额外触觉信息在推断物体几何形状方面也非常有帮助。当仅从深度获取的信息无法产生准确的几何预测时,尤其如此。我们的方法与其他视觉 - 触觉通用几何推理方法进行了对比测试,并且表现更优。我们还提供了比较我们的方法抓取成功率的实验结果。
参考文献(34)
被引文献(0)

数据更新时间:{{ references.updateTime }}

关联基金

NRI: FND: Scalable Multimodal Tactile Sensing for Robotic Manipulators in Manufacturing
批准号:
1734557
批准年份:
2017
资助金额:
75
项目类别:
Standard Grant
Allen, Peter
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓