Collaborative Research: Visual Tactile Neural Fields for Active Digital Twin Generation
合作研究:用于主动数字孪生生成的视觉触觉神经场
基本信息
- 批准号:2220868
- 负责人:
- 金额:$ 27.23万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2022
- 资助国家:美国
- 起止时间:2022-10-01 至 2025-09-30
- 项目状态:未结题
- 来源:
- 关键词:
项目摘要
Robots will perform better at everyday activities when they can quickly combine their sensory data into a model of their environment, just like how humans instinctively use all their senses and knowledge to accomplish daily tasks. Robots, however, must be programmed to create these models that humans do intuitively, effortlessly, and robustly. This robotics project explores a novel algorithmic approach that combines visual and tactile sensory data with a knowledge of physics and a capability to learn that makes robot planning and reasoning more effective, efficient, and adaptable. The project includes the development and testing of research prototypes, preparation of new curriculum, and outreach to high school students and teachers and to the general public.This project introduces a new data representation, called a Visual Tactile Neural Field (VTNF), that allows robots to combine data from visual and tactile sensors to create a unified model of an object. The VTNF is designed to be used in a closed-loop manner, where a robot may use data from its physical interactions with an object to create or improve a model and may use its current understanding of a model to inform how best to interact with a physical object. Towards this end, the investigators create the mathematical techniques, computational tools, and robot hardware necessary to generate a VTNF model. The investigators also develop techniques to quantify the uncertainty about an object and use this uncertainty to learn search policies that allow robots to generate accurate models as quickly as possible. The VTNF, which allows for the easy addition of new properties about an object, provides a flexible representational foundation for other researchers and practitioners to use to enable robots to learn faster by having a more detailed understanding of both the surrounding environment and their interactions with it.This project is supported by the cross-directorate Foundational Research program in Robotics and the National Robotics Initiative, jointly managed and funded by the Directorates for Engineering (ENG) and Computer and Information Science and Engineering (CISE).This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
当机器人能够快速将感知数据整合到环境模型中时,机器人将在日常活动中表现得更好,就像人类本能地利用所有感官和知识来完成日常任务一样。然而,机器人必须经过编程才能创建人类直观、轻松且稳健的模型。该机器人项目探索了一种新颖的算法方法,将视觉和触觉感官数据与物理知识和学习能力相结合,使机器人的规划和推理更加有效、高效和适应性强。该项目包括开发和测试研究原型、准备新课程以及向高中生和教师以及公众进行推广。该项目引入了一种新的数据表示形式,称为视觉触觉神经场(VTNF),它允许机器人结合视觉和触觉传感器的数据来创建物体的统一模型。 VTNF 被设计为以闭环方式使用,其中机器人可以使用与物体物理交互的数据来创建或改进模型,并可以使用其当前对模型的理解来告知如何最好地与物体交互。物理对象。为此,研究人员创建了生成 VTNF 模型所需的数学技术、计算工具和机器人硬件。研究人员还开发了量化物体不确定性的技术,并利用这种不确定性来学习搜索策略,使机器人能够尽快生成准确的模型。 VTNF 允许轻松添加对象的新属性,为其他研究人员和实践者提供了灵活的代表性基础,使机器人能够通过更详细地了解周围环境及其与周围环境的交互来更快地学习该项目得到了机器人学跨部门基础研究计划和国家机器人计划的支持,该项目由工程理事会 (ENG) 和计算机与信息科学与工程理事会 (CISE) 共同管理和资助。该奖项反映了 NSF 的法定使命并且已经通过使用基金会的智力优点和更广泛的影响审查标准进行评估,认为值得支持。
项目成果
期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
数据更新时间:{{ journalArticles.updateTime }}
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Kostas Daniilidis其他文献
Nonmyopic View Planning for Active Object Detection
用于活动物体检测的非近视视图规划
- DOI:
10.48550/arxiv.2311.05046 - 发表时间:
2013-09-20 - 期刊:
- 影响因子:0
- 作者:
Nikolay A. Atanasov;Bharathwaj Sankaran;J. L. Ny;George Pappas;Kostas Daniilidis - 通讯作者:
Kostas Daniilidis
Distributed 3-D Bearing-Only Orientation Localization
分布式 3D 仅方位定向定位
- DOI:
10.1109/cdc40024.2019.9030234 - 发表时间:
2019-12-01 - 期刊:
- 影响因子:0
- 作者:
Spyridon Leonardos;Kostas Daniilidis;Roberto Tron - 通讯作者:
Roberto Tron
Hybrid control for visibility-based pursuit-evasion games
基于可见性的追击躲避游戏的混合控制
- DOI:
10.1109/iros.2004.1389597 - 发表时间:
2004-12-01 - 期刊:
- 影响因子:0
- 作者:
Volkan Isler;C. Belta;Kostas Daniilidis;George Pappas - 通讯作者:
George Pappas
A Survey on Rotation Optimization in Structure from Motion
运动结构旋转优化研究综述
- DOI:
10.1109/cvprw.2016.133 - 发表时间:
2016-06-26 - 期刊:
- 影响因子:0
- 作者:
Roberto Tron;Xiaowei Zhou;Kostas Daniilidis - 通讯作者:
Kostas Daniilidis
Attentive Visual Motion Processing: Computations in the Log-Polar Plane
专注的视觉运动处理:对数极平面中的计算
- DOI:
10.1007/978-3-7091-6586-7_1 - 发表时间:
1994-03-01 - 期刊:
- 影响因子:0
- 作者:
Kostas Daniilidis - 通讯作者:
Kostas Daniilidis
Kostas Daniilidis的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Kostas Daniilidis', 18)}}的其他基金
RI: Medium: Learning to Map and Navigate with Vision and Language
RI:媒介:学习用视觉和语言绘制地图和导航
- 批准号:
2212433 - 财政年份:2022
- 资助金额:
$ 27.23万 - 项目类别:
Continuing Grant
RI: Medium: Collaborative Research: Closed Loop Perceptual Planning for Dynamic Locomotion
RI:中:协作研究:动态运动的闭环感知规划
- 批准号:
1703319 - 财政年份:2017
- 资助金额:
$ 27.23万 - 项目类别:
Continuing Grant
MRI: Development of an Observatory for Quantitative Analysis of Collective Behavior in Animals
MRI:开发动物集体行为定量分析观测站
- 批准号:
1626008 - 财政年份:2016
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
I/UCRC Phase I: Robots and Sensors for the Human Well-being
I/UCRC 第一阶段:造福人类福祉的机器人和传感器
- 批准号:
1439681 - 财政年份:2014
- 资助金额:
$ 27.23万 - 项目类别:
Continuing Grant
NRI: Small: Collaborative Research: Active Sensing for Robotic Cameramen
NRI:小型:协作研究:机器人摄影师的主动传感
- 批准号:
1317947 - 财政年份:2013
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
I-Corps: BlindNav: Indoor Navigation for the Visually Impaired
I-Corps:BlindNav:为视障人士提供室内导航
- 批准号:
1265129 - 财政年份:2012
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
CDI-Type II: Collaborative Research: Perception of Scene Layout by Machines and Visually Impaired Users
CDI-Type II:协作研究:机器和视障用户对场景布局的感知
- 批准号:
1028009 - 财政年份:2010
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
CDI-Type II: Collaborative Research: Cyber Enhancement of Spatial Cognition for the Visually Impaired
CDI-Type II:协作研究:视觉障碍者空间认知的网络增强
- 批准号:
0835714 - 财政年份:2008
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
RI: Collaborative Research: Bio-inspired Navigation
RI:合作研究:仿生导航
- 批准号:
0713260 - 财政年份:2007
- 资助金额:
$ 27.23万 - 项目类别:
Continuing Grant
相似国自然基金
基于视觉匿名化的步态隐私保护关键技术研究
- 批准号:62372295
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
面向层次化视觉数据的双曲学习方法研究
- 批准号:62306070
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
基于计算机视觉的北京老旧居住建筑立面品质测评与生成式更新设计研究
- 批准号:52378022
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
极端环境下视觉感知的关键问题研究
- 批准号:62376222
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
语义描述-视觉表征-时空轨迹知识融合的监控视频车辆重识别方法研究
- 批准号:42301496
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
相似海外基金
Collaborative Research: Visual Information about surface curvature from patterns of image shading and contours
合作研究:从图像阴影和轮廓图案中获取有关表面曲率的视觉信息
- 批准号:
2238180 - 财政年份:2023
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
Collaborative Research: HCC: Medium: Modeling and Mitigating Confirmation Bias in Visual Data Analysis
合作研究:HCC:媒介:可视化数据分析中的建模和减轻确认偏差
- 批准号:
2311575 - 财政年份:2023
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
Collaborative Research: HCC: Medium: Modeling and Mitigating Confirmation Bias in Visual Data Analysis
合作研究:HCC:媒介:可视化数据分析中的建模和减轻确认偏差
- 批准号:
2311574 - 财政年份:2023
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
Collaborative Research: Using Machine Learning to Improve Visual Problem-Solving in Chemistry Education
协作研究:利用机器学习提高化学教育中的视觉问题解决能力
- 批准号:
2235485 - 财政年份:2023
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant
Collaborative Research: Indigenous Northern Landscapes, Visual Repatriation, and Collaborative Knowledge Exchange
合作研究:北方本土景观、视觉归还和合作知识交流
- 批准号:
2330924 - 财政年份:2023
- 资助金额:
$ 27.23万 - 项目类别:
Standard Grant