Collaborative Research: Visual Tactile Neural Fields for Active Digital Twin Generation

合作研究:用于主动数字孪生生成的视觉触觉神经场

基本信息

  • 批准号:
    2220868
  • 负责人:
  • 金额:
    $ 27.23万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2022
  • 资助国家:
    美国
  • 起止时间:
    2022-10-01 至 2025-09-30
  • 项目状态:
    未结题

项目摘要

Robots will perform better at everyday activities when they can quickly combine their sensory data into a model of their environment, just like how humans instinctively use all their senses and knowledge to accomplish daily tasks. Robots, however, must be programmed to create these models that humans do intuitively, effortlessly, and robustly. This robotics project explores a novel algorithmic approach that combines visual and tactile sensory data with a knowledge of physics and a capability to learn that makes robot planning and reasoning more effective, efficient, and adaptable. The project includes the development and testing of research prototypes, preparation of new curriculum, and outreach to high school students and teachers and to the general public.This project introduces a new data representation, called a Visual Tactile Neural Field (VTNF), that allows robots to combine data from visual and tactile sensors to create a unified model of an object. The VTNF is designed to be used in a closed-loop manner, where a robot may use data from its physical interactions with an object to create or improve a model and may use its current understanding of a model to inform how best to interact with a physical object. Towards this end, the investigators create the mathematical techniques, computational tools, and robot hardware necessary to generate a VTNF model. The investigators also develop techniques to quantify the uncertainty about an object and use this uncertainty to learn search policies that allow robots to generate accurate models as quickly as possible. The VTNF, which allows for the easy addition of new properties about an object, provides a flexible representational foundation for other researchers and practitioners to use to enable robots to learn faster by having a more detailed understanding of both the surrounding environment and their interactions with it.This project is supported by the cross-directorate Foundational Research program in Robotics and the National Robotics Initiative, jointly managed and funded by the Directorates for Engineering (ENG) and Computer and Information Science and Engineering (CISE).This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
机器人可以在日常活动中表现更好,当时他们可以将感觉数据迅速结合到环境模型中,就像人类本能地使用所有感官和知识来完成日常任务一样。但是,必须对机器人进行编程,以创建这些模型,这些模型是人类直观,毫不费力,稳健的。该机器人技术探索了一种新颖的算法方法,该方法将视觉和触觉感觉数据与物理知识结合在一起,并具有使机器人计划和推理更加有效,高效和适应能力的学习能力。该项目包括研究原型的开发和测试,新课程的准备以及向高中生和教师以及向公众推广。该项目引入了一种新的数据表示,称为视觉触觉神经领域(VTNF),该项目使机器人可以从视觉和触觉传感器中组合数据,以创建一个统一的对象模型。 VTNF设计为以闭环方式使用,在该方式中,机器人可以使用其与对象的物理交互中的数据来创建或改进模型,并可以使用其当前对模型的理解来告知如何最好地与物理对象进行交互。为此,研究人员创建了生成VTNF模型所需的数学技术,计算工具和机器人硬件。研究人员还开发了量化对象的不确定性的技术,并使用这种不确定性来学习搜索策略,以使机器人能够尽快生成准确的模型。 VTNF允许轻松添加有关物体的新属性,为其他研究人员和从业人员提供了灵活的代表性基础,可以通过对周围环境及其相互作用进行更详细的了解,以使机器人更快地学习及其与之的互动。该项目由该项目提供了由机器人和国民机器人和国民机器人和国民的基础研究(Interiate Interiate Insportiate Insportiate Insportiate Insportiate interiational and Interiate Insportiate Insportiate and Interiate Insportiate Insportiate and Insportiate interiational and Insportiate)的支持(科学与工程(CISE)。该奖项反映了NSF的法定任务,并被认为是通过基金会的知识分子优点和更广泛影响的评论标准来评估值得支持的。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Kostas Daniilidis其他文献

Template gradient matching in spherical images
球形图像中的模板梯度匹配
Perception-Driven Curiosity with Bayesian Surprise
感知驱动的好奇心与贝叶斯惊喜
  • DOI:
  • 发表时间:
    2019
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Bernadette Bucher;Anton Arapin;Ramanan Sekar;M. Badger;Feifei Duan;Oleh Rybkin;Kostas Daniilidis
  • 通讯作者:
    Kostas Daniilidis
EV-Catcher: High-Speed Object Catching Using Low-Latency Event-Based Neural Networks
EV-Catcher:使用低延迟基于事件的神经网络进行高速对象捕获
  • DOI:
    10.1109/lra.2022.3188400
  • 发表时间:
    2022
  • 期刊:
  • 影响因子:
    5.2
  • 作者:
    ZiYun Wang;F. Ojeda;Anthony Bisulco;Daewon Lee;C. J. Taylor;Kostas Daniilidis;M. A. Hsieh;Daniel D. Lee;Volkan Isler
  • 通讯作者:
    Volkan Isler
Technical report on Optimization-Based Bearing-Only Visual Homing with Applications to a 2-D Unicycle Model
关于基于优化的仅轴承视觉归位及其在二维独轮车模型中的应用的技术报告
  • DOI:
  • 发表时间:
    2014
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Roberto Tron;Kostas Daniilidis
  • 通讯作者:
    Kostas Daniilidis
Predicting the Future with Transformational States
用转型国家预测未来
  • DOI:
  • 发表时间:
    2018
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Andrew Jaegle;Oleh Rybkin;K. Derpanis;Kostas Daniilidis
  • 通讯作者:
    Kostas Daniilidis

Kostas Daniilidis的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Kostas Daniilidis', 18)}}的其他基金

RI: Medium: Learning to Map and Navigate with Vision and Language
RI:媒介:学习用视觉和语言绘制地图和导航
  • 批准号:
    2212433
  • 财政年份:
    2022
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Continuing Grant
RI: Medium: Collaborative Research: Closed Loop Perceptual Planning for Dynamic Locomotion
RI:中:协作研究:动态运动的闭环感知规划
  • 批准号:
    1703319
  • 财政年份:
    2017
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Continuing Grant
MRI: Development of an Observatory for Quantitative Analysis of Collective Behavior in Animals
MRI:开发动物集体行为定量分析观测站
  • 批准号:
    1626008
  • 财政年份:
    2016
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
I/UCRC Phase I: Robots and Sensors for the Human Well-being
I/UCRC 第一阶段:造福人类福祉的机器人和传感器
  • 批准号:
    1439681
  • 财政年份:
    2014
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Continuing Grant
NRI: Small: Collaborative Research: Active Sensing for Robotic Cameramen
NRI:小型:协作研究:机器人摄影师的主动传感
  • 批准号:
    1317947
  • 财政年份:
    2013
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
I-Corps: BlindNav: Indoor Navigation for the Visually Impaired
I-Corps:BlindNav:为视障人士提供室内导航
  • 批准号:
    1265129
  • 财政年份:
    2012
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
IGERT: Complex Scene Perception
IGERT:复杂场景感知
  • 批准号:
    0966142
  • 财政年份:
    2010
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Continuing Grant
CDI-Type II: Collaborative Research: Perception of Scene Layout by Machines and Visually Impaired Users
CDI-Type II:协作研究:机器和视障用户对场景布局的感知
  • 批准号:
    1028009
  • 财政年份:
    2010
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
CDI-Type II: Collaborative Research: Cyber Enhancement of Spatial Cognition for the Visually Impaired
CDI-Type II:协作研究:视觉障碍者空间认知的网络增强
  • 批准号:
    0835714
  • 财政年份:
    2008
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
RI: Collaborative Research: Bio-inspired Navigation
RI:合作研究:仿生导航
  • 批准号:
    0713260
  • 财政年份:
    2007
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Continuing Grant

相似国自然基金

面向靶场炸点的协作式可变基线动态立体视觉空间坐标测量方法研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
面向靶场炸点的协作式可变基线动态立体视觉空间坐标测量方法研究
  • 批准号:
    52205548
  • 批准年份:
    2022
  • 资助金额:
    30.00 万元
  • 项目类别:
    青年科学基金项目
面向变工况人机协作的非朗伯表面目标视觉定位研究
  • 批准号:
    52105525
  • 批准年份:
    2021
  • 资助金额:
    24.00 万元
  • 项目类别:
    青年科学基金项目
面向变工况人机协作的非朗伯表面目标视觉定位研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
全天时复杂背景下地面侦察机器人的视觉手势遥操作控制的理论与方法研究
  • 批准号:
    61903207
  • 批准年份:
    2019
  • 资助金额:
    25.0 万元
  • 项目类别:
    青年科学基金项目

相似海外基金

Collaborative Research: Using Machine Learning to Improve Visual Problem-Solving in Chemistry Education
协作研究:利用机器学习提高化学教育中的视觉问题解决能力
  • 批准号:
    2235790
  • 财政年份:
    2023
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
Collaborative Research: Indigenous Northern Landscapes, Visual Repatriation, and Collaborative Knowledge Exchange
合作研究:北方本土景观、视觉归还和合作知识交流
  • 批准号:
    2330924
  • 财政年份:
    2023
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
Collaborative Research: Visual Information about surface curvature from patterns of image shading and contours
合作研究:从图像阴影和轮廓图案中获取有关表面曲率的视觉信息
  • 批准号:
    2238180
  • 财政年份:
    2023
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
Collaborative Research: Visual Information about surface curvature from patterns of image shading and contours
合作研究:从图像阴影和轮廓图案中获取有关表面曲率的视觉信息
  • 批准号:
    2238179
  • 财政年份:
    2023
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
Collaborative Research: HCC: Medium: Modeling and Mitigating Confirmation Bias in Visual Data Analysis
合作研究:HCC:媒介:可视化数据分析中的建模和减轻确认偏差
  • 批准号:
    2311575
  • 财政年份:
    2023
  • 资助金额:
    $ 27.23万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了