NRI: Collaborative Research: Human-Supervised Perception and Grasping in Clutter

NRI:协作研究:人类监督的杂乱中的感知和抓取

基本信息

  • 批准号:
    1426968
  • 负责人:
  • 金额:
    $ 49.62万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2014
  • 资助国家:
    美国
  • 起止时间:
    2014-08-15 至 2019-01-31
  • 项目状态:
    已结题

项目摘要

One of the basic building blocks in semi-autonomous manipulation is the ability for a robot to grasp an object that a human operator indicates. There are many tasks where the natural way for a human and robot to work together is for the human to point out the approximate locations of objects to be grasped and for the robot to generate the precise motions necessary to achieve the grasp. This core "auto-grasp" functionality is critical to providing assistive manipulation for the disabled and elderly, as well as for a variety of military, police, space, or underwater applications. But implementing auto-grasp capability can be challenging in situations where the environment is cluttered, or when it is difficult to determine the grasp intention of the human. In this collaborative project that combines expertise from two institutions, the PIs will tackle situations where it is necessary for the robot to actively explore or "interrogate" the environment in order to figure out what the human intends to grasp and how the robot should do it. To these ends, the PIs will investigate a modified approach to planning under uncertainty known as belief space planning. Belief space planning is well-suited to active localization for grasping, because it is a single framework in which the algorithm can reason about perception-oriented and goal-orientation parts of the task. The PIs will use belief space planning to localize graspable geometries in the environment, known as grasp affordances, in a region indicated by the user. They will also explore different ways in which a human can interact with the system in order to control the grasping. The application focus of the work will be in assistive manipulation, where a person who is elderly or disabled operates an assistive robot arm mounted on an electric wheelchair or scooter. User studies will determine the best methods for the target population to operate the system. The project will contribute to the opportunities available for undergraduates and high school students in the PIs' institutions, and it will also be integrated as appropriate into the curricula of the courses they teach.This research contains two key innovations that the PIs expect will make robot grasping more robust. The first is to incorporate ideas from belief space planning into the reach and grasp planning process. Because belief space planning can reason about how the robot's own "state of information" is expected to change in the future, it is capable of producing plans that acquire task-relevant information in the course of performing a task. The second innovation is a new approach to perception-for-grasping that localizes grasp affordance geometries in the neighborhoods of objects of potential interest. Not only is this grasp affordance approach helpful to the belief space planner, but the PIs' preliminary work indicates that this approach can be accurate and very fast (10Hz). Finally, the connection between the user interface and uncertainty in the location of the grasp target will also be explored, the plan being to model human behavior as an uncertain system where hidden variables describe user intention.
半自治操作中的基本构件之一是机器人掌握人类操作员指示的物体的能力。 在许多任务中,人类和机器人一起工作的自然方式是人类指出要抓住物体的近似位置,并供机器人产生实现掌握所需的精确动作。 这种核心“自动抓”功能对于为残疾人和老年人以及各种军事,警察,太空或水下应用提供辅助操作至关重要。但是,在环境混乱或难以确定人类的掌握意图的情况下,实施自动抓紧能力可能是具有挑战性的。 在将两个机构的专业知识结合起来的合作项目中,PI将解决机器人有必要积极探索或“询问”环境的情况,以找出人类打算掌握的内容以及机器人应该如何做到这一点。 对于这些目的,PI将调查一种在不确定性的信念空间规划下进行的修改方法。 信念空间规划非常适合主动掌握,因为它是一个单一的框架,算法可以推理任务的面向感知和目标方向的部分。 PI将使用信念空间计划在用户指示的区域中在环境中定位可抓地的几何形状,称为Grasp Provrice。 他们还将探索人类与系统相互作用以控制抓地力的不同方式。 这项工作的应用将集中在辅助操作上,在辅助操作中,老年人或残疾人的人操作一个安装在电动轮椅或踏板车上的辅助机器人手臂。 用户研究将确定目标人群操作系统的最佳方法。 该项目将为PIS机构中的大学生和高中生提供的机会做出贡献,并且还将适当地集成到他们所教的课程的课程中。这项研究包含了PIS期望的两项关键创新,PIS期望使机器人更加稳健。 首先是将信仰空间规划中的想法纳入覆盖范围并掌握计划过程。 因为信仰太空规划可以推理机器人自己的“信息状态”如何在将来发生变化,因此它能够制定计划在执行任务过程中获取与任务相关的信息的计划。 第二种创新是一种新的方法,可以在潜在感兴趣的物体附近掌握负担的几何形状。 这种掌握的负担方法不仅有助于信仰空间策划者,而且PIS的初步工作表明这种方法可以准确且非常快(10Hz)。 最后,还将探讨用户界面与不确定性之间的连接,也将探讨“掌握目标”位置,该计划是将人类行为建模为一个不确定的系统,其中隐藏变量描述了用户意图。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Holly Yanco其他文献

Towards Cooperative Control of Humanoid Robots for Handling High-Consequence Materials in Gloveboxes – 17291
用于处理手套箱中高后果材料的人形机器人的协作控制 – 17291
  • DOI:
  • 发表时间:
  • 期刊:
  • 影响因子:
    0
  • 作者:
    T. Padır;Holly Yanco;Robert W. Platt
  • 通讯作者:
    Robert W. Platt
AI-CARING: National AI Institute for Collaborative Assistance and Responsive Interaction for Networked Groups
AI-CARING:国家人工智能网络团体协作援助和响应式互动研究所
  • DOI:
  • 发表时间:
    2024
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Sonia Chernova;Elizabeth Mynatt;Agata Rozga;Reid G. Simmons;Holly Yanco
  • 通讯作者:
    Holly Yanco
Primary, Secondary, and Tertiary Interactions for Fleet HumanRobot Interaction: Insights from Field Testing
舰队人机交互的初级、二级和三级交互:来自现场测试的见解
Measuring Attitudes Towards Telepresence Robots
衡量对远程呈现机器人的态度
  • DOI:
  • 发表时间:
    2011
  • 期刊:
  • 影响因子:
    0
  • 作者:
    K. Tsui;Munjal Desaj;Holly Yanco;H. Cramer;Nicander Kempe
  • 通讯作者:
    Nicander Kempe

Holly Yanco的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Holly Yanco', 18)}}的其他基金

POSE: Phase I: Collaborative Open-source Manipulation and Perception Assets for Robotics Ecosystem (COMPARE)
POSE:第一阶段:机器人生态系统的协作开源操纵和感知资产(比较)
  • 批准号:
    2229577
  • 财政年份:
    2022
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
Collaborative Research: Legible Co-Adaptation of Wearable Devices for As-Needed Assistance of Arm Motion
合作研究:可穿戴设备的清晰协同适应,以按需协助手臂运动
  • 批准号:
    2110214
  • 财政年份:
    2021
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Continuing Grant
CHS: Medium: Collaborative Research: Fabric-Embedded Dynamic Sensing for Adaptive Exoskeleton Assistance
CHS:媒介:协作研究:用于自适应外骨骼辅助的织物嵌入式动态传感
  • 批准号:
    1955979
  • 财政年份:
    2020
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
CCRI: Medium: Collaborative Research: Physical Robotic Manipulation Test Facility
CCRI:媒介:协作研究:物理机器人操作测试设施
  • 批准号:
    1925604
  • 财政年份:
    2019
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
NRI: Collaborative Research: Cooperative Control of Humanoid Robots for Remote Operations in Nuclear Environments
NRI:协作研究:核环境中远程操作的人形机器人协作控制
  • 批准号:
    1944584
  • 财政年份:
    2019
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
CHS: Medium: Collaborative Research: Manipulation Assistance for Activities of Daily Living in Everyday Environments
CHS:媒介:协作研究:日常环境中日常生活活动的操纵辅助
  • 批准号:
    1763469
  • 财政年份:
    2018
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Continuing Grant
EAGER: Collaborative Research: Exploring Models for Conveying Imminent Robot Failures to Allow for Human Intervention
EAGER:协作研究:探索传达即将发生的机器人故障以允许人类干预的模型
  • 批准号:
    1552228
  • 财政年份:
    2015
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
Travel Support for Students to Attend a Symposium on the Influences of Behavior-Based Robotics on the Field
为学生参加关于基于行为的机器人技术对现场的影响的研讨会提供旅行支持
  • 批准号:
    1237941
  • 财政年份:
    2012
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
HCC: Large: Collaborative Research: Human-Robot Dialog for Collaborative Navigation Tasks
HCC:大型:协作研究:用于协作导航任务的人机对话
  • 批准号:
    1111125
  • 财政年份:
    2011
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
Workshop: Human Robot Interaction (HRI) 2010 Doctoral Consortium
研讨会:人机交互 (HRI) 2010 博士联盟
  • 批准号:
    1015953
  • 财政年份:
    2010
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant

相似国自然基金

数智背景下的团队人力资本层级结构类型、团队协作过程与团队效能结果之间关系的研究
  • 批准号:
    72372084
  • 批准年份:
    2023
  • 资助金额:
    40 万元
  • 项目类别:
    面上项目
在线医疗团队协作模式与绩效提升策略研究
  • 批准号:
    72371111
  • 批准年份:
    2023
  • 资助金额:
    41 万元
  • 项目类别:
    面上项目
面向人机接触式协同作业的协作机器人交互控制方法研究
  • 批准号:
    62373044
  • 批准年份:
    2023
  • 资助金额:
    50 万元
  • 项目类别:
    面上项目
基于数字孪生的颅颌面人机协作智能手术机器人关键技术研究
  • 批准号:
    82372548
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
A-型结晶抗性淀粉调控肠道细菌协作产丁酸机制研究
  • 批准号:
    32302064
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目

相似海外基金

NRI/Collaborative Research: Robotic Disassembly of High-Precision Electronic Devices
NRI/合作研究:高精度电子设备的机器人拆卸
  • 批准号:
    2422640
  • 财政年份:
    2024
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
NRI/Collaborative Research: Robust Design and Reliable Autonomy for Transforming Modular Hybrid Rigid-Soft Robots
NRI/合作研究:用于改造模块化混合刚软机器人的稳健设计和可靠自主性
  • 批准号:
    2327702
  • 财政年份:
    2023
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Understanding Underlying Risks and Sociotechnical Challenges of Powered Wearable Exoskeleton to Construction Workers
合作研究:NRI:了解建筑工人动力可穿戴外骨骼的潜在风险和社会技术挑战
  • 批准号:
    2410255
  • 财政年份:
    2023
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
NRI: FND: Collaborative Research: DeepSoRo: High-dimensional Proprioceptive and Tactile Sensing and Modeling for Soft Grippers
NRI:FND:合作研究:DeepSoRo:软抓手的高维本体感受和触觉感知与建模
  • 批准号:
    2348839
  • 财政年份:
    2023
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
Collaborative Research: NRI: Reducing Falling Risk in Robot-Assisted Retail Environments
合作研究:NRI:降低机器人辅助零售环境中的跌倒风险
  • 批准号:
    2132936
  • 财政年份:
    2022
  • 资助金额:
    $ 49.62万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了