NRI: Collaborative Research: Shall I Touch This?: Navigating the Look and Feel of Complex Surfaces
NRI:协作研究:我应该触摸这个吗?:导航复杂表面的外观和感觉
基本信息
- 批准号:1427425
- 负责人:
- 金额:$ 60万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2014
- 资助国家:美国
- 起止时间:2014-07-15 至 2017-06-30
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
This project improves autonomous robotic perception so that future co-robots can glance around any scene and accurately estimate how it would feel to grasp or step on all of the visible surfaces. Just as people do, robots should use such these physical predictions to guide their interactions with the world, for example avoiding dangerous ice patches on the ground when walking and driving, and adeptly anticipating the grasp force needed to pick up everything from ice cubes to stuffed animals. These research activities are accompanied by significant outreach efforts, including a new program on "Look and Touch Robotics" to get middle-school students, particularly those from underrepresented groups, excited about computer science, engineering, and robotics. This program uses simple experiments to highlight the dual importance of visual and haptic information during interactions with physical objects, along with demonstrations of a robot showing visuo-haptic intelligence. This project also integrates research and education by involving undergraduates in the research and via hands-on projects in the vision and robotics classes taught by the Principal Investigators.This research involves extensive collection of data from real objects and surfaces using both visual and haptic sensors. The recorded interactions are analyzed to uncover visual clues that can allow a robot to infer the physical characteristics of the surface, such as slipperiness, hardness, and roughness. This problem is addressed using deep learning, a recently developed approach that has been successful in enabling robots to visually recognize a wide variety of objects in diverse circumstances. The research team also builds the database of visuo-haptic recordings and the learned cross-modal sensory, and makes it available to other robotics researchers at the end of the project.
该项目改进了机器人的自主感知,以便未来的协作机器人可以环视任何场景,并准确估计抓住或踩在所有可见表面上的感觉,就像人类一样,机器人应该使用这些物理预测来指导它们。与世界的互动,例如在行走和驾驶时避免地面上的危险冰块,并熟练地预测拾取从冰块到毛绒玩具等所有物品所需的抓握力。这些研究活动伴随着重大的外展工作,包括一项新的研究。 “看和触摸”节目机器人技术”旨在让中学生,特别是那些来自弱势群体的学生,对计算机科学、工程和机器人技术感到兴奋。该项目使用简单的实验来强调视觉和触觉信息在与物理对象交互过程中的双重重要性,并演示该项目还整合了参与研究的本科生的研究和教育,以及通过首席研究员教授的视觉和机器人课程中的实践项目。这项研究涉及从真实物体和机器人中广泛收集数据。使用两者的表面视觉和触觉传感器对记录的交互进行分析,以发现视觉线索,使机器人能够推断出表面的物理特征,例如光滑度、硬度和粗糙度。这个问题可以通过深度学习来解决,这是一种最近开发的方法。已经成功地使机器人能够在不同的情况下视觉识别各种物体。该研究团队还建立了视觉触觉记录和学习的跨模式感觉的数据库,并在年底向其他机器人研究人员提供。这项目。
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
数据更新时间:{{ journalArticles.updateTime }}
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Trevor Darrell其他文献
Recovering Articulated Model Topology from Observed Motion
从观察到的运动中恢复铰接模型拓扑
- DOI:
- 发表时间:
2002 - 期刊:
- 影响因子:0
- 作者:
Leonid Taycher;John W. Fisher III;Trevor Darrell - 通讯作者:
Trevor Darrell
Fast stereo-based head tracking for interactive environments
适用于交互式环境的快速立体头部跟踪
- DOI:
10.1109/afgr.2002.1004185 - 发表时间:
2002-05-20 - 期刊:
- 影响因子:0
- 作者:
Louis;A. Rahimi;N. Checka;Trevor Darrell - 通讯作者:
Trevor Darrell
Articulatory features for robust visual speech recognition
强大的视觉语音识别的发音特征
- DOI:
10.1145/1027933.1027960 - 发表时间:
2004-10-13 - 期刊:
- 影响因子:0
- 作者:
Kate Saenko;Trevor Darrell;James R. Glass - 通讯作者:
James R. Glass
Deep Object-Centric Representations for Generalizable Robot Learning
用于通用机器人学习的以对象为中心的深度表示
- DOI:
10.1109/icra.2018.8461196 - 发表时间:
2017-08-14 - 期刊:
- 影响因子:0
- 作者:
Coline Devin;P. Abbeel;Trevor Darrell;S. Levine - 通讯作者:
S. Levine
Towards Context-Based Visual Feedback Recognition for Embodied Agents
面向实体代理的基于上下文的视觉反馈识别
- DOI:
- 发表时间:
2005 - 期刊:
- 影响因子:0
- 作者:
Louis;C. Sidner;Trevor Darrell - 通讯作者:
Trevor Darrell
Trevor Darrell的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Trevor Darrell', 18)}}的其他基金
Collaborative Research: CCRI: New: An Open Source Simulation Platform for AI Research on Autonomous Driving
合作研究:CCRI:新:自动驾驶人工智能研究的开源仿真平台
- 批准号:
2235013 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
AitF: FULL: Collaborative Research: PEARL: Perceptual Adaptive Representation Learning in the Wild
AitF:FULL:协作研究:PEARL:野外感知自适应表示学习
- 批准号:
1536003 - 财政年份:2015
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
RI: Large: Collaborative Research: Reconstructive recognition: Uniting statistical scene understanding and physics-based visual reasoning
RI:大型:协作研究:重建识别:结合统计场景理解和基于物理的视觉推理
- 批准号:
1212798 - 财政年份:2012
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
RI: Small: Hierarchical Probabilistic Layers for Visual Recognition of Complex Objects
RI:小:用于复杂对象视觉识别的分层概率层
- 批准号:
1116411 - 财政年份:2011
- 资助金额:
$ 60万 - 项目类别:
Continuing Grant
Support for Workshop on Advances in Language and Vision
支持语言和视觉进步研讨会
- 批准号:
1134072 - 财政年份:2011
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
HCC: Medium: Collaborative Research: Computer Vision and Online Communities: A Symbiosis
HCC:媒介:协作研究:计算机视觉和在线社区:共生
- 批准号:
0905647 - 财政年份:2009
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
HRI: Perceptually Situated Human-Robot Dialog Models
HRI:感知情境人机对话模型
- 批准号:
0819984 - 财政年份:2008
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
HRI: Perceptually Situated Human-Robot Dialog Models
HRI:感知情境人机对话模型
- 批准号:
0704479 - 财政年份:2007
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
Student Participant Support for International Conference on Multimodal Interfaces 2007; November 12-15, 2007 in Nagoya, Japan
2007 年国际多模式接口会议学生参与者支持;
- 批准号:
0735077 - 财政年份:2007
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
Student participant support for ICMI 2006
ICMI 2006 学生参与者支持
- 批准号:
0631995 - 财政年份:2006
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
相似国自然基金
基于交易双方异质性的工程项目组织间协作动态耦合研究
- 批准号:72301024
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
医保基金战略性购买促进远程医疗协作网价值共创的制度创新研究
- 批准号:
- 批准年份:2022
- 资助金额:45 万元
- 项目类别:面上项目
面向协作感知车联网的信息分发时效性保证关键技术研究
- 批准号:
- 批准年份:2022
- 资助金额:30 万元
- 项目类别:青年科学基金项目
基于自主性边界的人机协作-对抗混合智能控制研究
- 批准号:
- 批准年份:2022
- 资助金额:30 万元
- 项目类别:青年科学基金项目
面向5G超高清移动视频传输的协作NOMA系统可靠性研究
- 批准号:
- 批准年份:2022
- 资助金额:30 万元
- 项目类别:青年科学基金项目
相似海外基金
NRI/Collaborative Research: Robotic Disassembly of High-Precision Electronic Devices
NRI/合作研究:高精度电子设备的机器人拆卸
- 批准号:
2422640 - 财政年份:2024
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
Collaborative Research: NRI: Understanding Underlying Risks and Sociotechnical Challenges of Powered Wearable Exoskeleton to Construction Workers
合作研究:NRI:了解建筑工人动力可穿戴外骨骼的潜在风险和社会技术挑战
- 批准号:
2410255 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
- 批准号:
2327702 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
NRI: FND: Collaborative Research: DeepSoRo: High-dimensional Proprioceptive and Tactile Sensing and Modeling for Soft Grippers
NRI:FND:合作研究:DeepSoRo:软抓手的高维本体感受和触觉感知与建模
- 批准号:
2348839 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
- 批准号:
2327702 - 财政年份:2023
- 资助金额:
$ 60万 - 项目类别:
Standard Grant