VALUE: Vision, Action, and Language Unified by Embodiment

价值:通过具体化统一愿景、行动和语言

基本信息

  • 批准号:
    EP/F026471/1
  • 负责人:
  • 金额:
    $ 63.73万
  • 依托单位:
  • 依托单位国家:
    英国
  • 项目类别:
    Research Grant
  • 财政年份:
    2008
  • 资助国家:
    英国
  • 起止时间:
    2008 至 无数据
  • 项目状态:
    已结题

项目摘要

The primary aim of this project is to develop a simulation of the processes involved in solving the following problem: how to select, based on the agent's knowledge and representations of the world, one object from several, grasp the object and use it in an appropriate manner. This mundane activity in fact requires the simultaneous solution of several deep problems at various levels. The agent's visual system must represent potential target objects, the target must be selected based on task instructions or the agent's knowledge of the functions of the represented objects, and the hand (in this case) must be moved to the target and shaped so as to grip it in a manner appropriate for its use. We propose to develop a robotic simulation model inspired by recent theories of embodied cognition, in which the vision, action and semantic systems are linked together, in a dynamic and mutually interactive manner, within a connectionist architecture. Human experimental work will constrain the temporal and dynamic properties of the system in an effort to develop a psychologically plausible model of embodied selection for action. As much of the cognitive mechanisms leading to the integration between action and vision for actions such as object assembly tasks are not fully known, new empirical studies in this project will also improve our insight of these embodied cognitive dynamics. New experiments and the use of the embodied cognitive model will also be used to further our understanding of language and cognition integration e.g. by providing further predictions and insights on the dynamics of language and action knowledge in object representation.This is an interdisciplinary project which involves expertise and methodologies from cognitive psychology, motor control, and computational/robotics modelling. The interdisciplinary nature of the project and the design and experimentation of cognitive agents make the project highly relevant to the Cognitive Systems Foresight programme
该项目的主要目的是开发一种模拟解决以下问题所涉及的过程:如何根据智能体的知识和对世界的表征,从多个对象中选择一个对象,掌握该对象并以适当的方式使用它方式。这种平凡的活动实际上需要同时解决各个层面的几个深层次问题。智能体的视觉系统必须代表潜在的目标物体,必须根据任务指令或智能体对所代表物体的功能的了解来选择目标,并且手(在本例中)必须移动到目标并形成形状,以便以适合其使用的方式握住它。我们建议开发一种机器人模拟模型,其灵感来自于最近的具身认知理论,其中视觉、动作和语义系统在联结主义架构中以动态和相互交互的方式连接在一起。人类实验工作将限制系统的时间和动态特性,以努力开发一个心理上合理的具体行动选择模型。由于导致诸如物体组装任务之类的行动和视觉整合的认知机制尚不完全清楚,因此该项目中的新实证研究也将提高我们对这些具体认知动态的洞察力。新的实验和具身认知模型的使用也将用于进一步我们对语言和认知整合的理解,例如:通过对对象表示中的语言和动作知识的动态提供进一步的预测和见解。这是一个跨学科项目,涉及认知心理学、运动控制和计算/机器人建模的专业知识和方法。该项目的跨学科性质以及认知代理的设计和实验使得该项目与认知系统预见计划高度相关

项目成果

期刊论文数量(10)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Visual and linguistic cues to graspable objects.
可抓握物体的视觉和语言线索。
  • DOI:
    http://dx.10.1007/s00221-013-3616-z
  • 发表时间:
    2013
  • 期刊:
  • 影响因子:
    2
  • 作者:
    Myachykov A
  • 通讯作者:
    Myachykov A
Electrophysiological examination of embodiment in vision and action.
视觉和动作体现的电生理检查。
  • DOI:
    http://dx.10.1177/0956797611429578
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    8.2
  • 作者:
    Goslin J
  • 通讯作者:
    Goslin J
Grounding language in action and perception: from cognitive agents to humanoid robots.
将语言置于行动和感知中:从认知主体到人形机器人。
  • DOI:
    http://dx.10.1016/j.plrev.2010.02.001
  • 发表时间:
    2010
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Cangelosi A
  • 通讯作者:
    Cangelosi A
Object affordance influences instruction span.
对象可供性影响教学广度。
  • DOI:
    http://dx.10.1007/s00221-012-3251-0
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    2
  • 作者:
    Apel JK
  • 通讯作者:
    Apel JK
Attention deployment during memorizing and executing complex instructions.
记忆和执行复杂指令时的注意力部署。
  • DOI:
    http://dx.10.1007/s00221-011-2827-4
  • 发表时间:
    2011
  • 期刊:
  • 影响因子:
    2
  • 作者:
    Apel JK
  • 通讯作者:
    Apel JK
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Angelo Cangelosi其他文献

A Cognitive Robotics Model for Contextual Diversity in Language Learning
语言学习中情境多样性的认知机器人模型
Development and Validation of a Motion Dictionary to Create Emotional Gestures for the NAO Robot
开发和验证运动词典,为 NAO 机器人创建情感手势
State-of-the-Art Elderly Service Robot: Environmental Perception, Compliance Control, Intention Recognition, and Research Challenges
最先进的养老服务机器人:环境感知、合规控制、意图识别和研究挑战
  • DOI:
  • 发表时间:
    2024
  • 期刊:
  • 影响因子:
    3.2
  • 作者:
    Xiaofeng Liu;Congyu Huang;Haoran Zhu;Ziyang Wang;Jie Li;Angelo Cangelosi
  • 通讯作者:
    Angelo Cangelosi
Deep developmental learning offers an explanation for toddlers' scale errors
深度发展学习为幼儿的量表错误提供了解释
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Beata J. Grzyb; Yukie Nagai; Minoru Asada; Iris van Rooij;Angelo Cangelosi
  • 通讯作者:
    Angelo Cangelosi
Temporal Patterns in Multi-Modal Social Interaction between Elderly Users and Service Robot
老年用户与服务机器人之间多模态社交互动的时间模式
  • DOI:
  • 发表时间:
    2019
  • 期刊:
  • 影响因子:
    1.5
  • 作者:
    Ning Wang;Aless;ro Di Nuovo;Angelo Cangelosi;Ray Jones
  • 通讯作者:
    Ray Jones

Angelo Cangelosi的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Angelo Cangelosi', 18)}}的其他基金

eTALK embodied Thought for Abstract Language Knowledge
eTALK体现了抽象语言知识的思想
  • 批准号:
    EP/Y029534/1
  • 财政年份:
    2024
  • 资助金额:
    $ 63.73万
  • 项目类别:
    Research Grant
TRAnsparent InterpretabLe robots - TRAIL
透明可解释机器人 - TRAIL
  • 批准号:
    EP/X035441/1
  • 财政年份:
    2023
  • 资助金额:
    $ 63.73万
  • 项目类别:
    Research Grant
BABEL
巴贝尔
  • 批准号:
    EP/J004561/1
  • 财政年份:
    2012
  • 资助金额:
    $ 63.73万
  • 项目类别:
    Research Grant
BABEL
巴贝尔
  • 批准号:
    EP/J004561/1
  • 财政年份:
    2012
  • 资助金额:
    $ 63.73万
  • 项目类别:
    Research Grant

相似国自然基金

预期想象的情绪因素影响跨期决策有效性的脑机制
  • 批准号:
    32300904
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
动作观察想象耦合训练对早期PIGD神经回路的强化重塑与康复机制
  • 批准号:
    82372083
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
基于中国手语的肢体运动想象脑机接口解码研究
  • 批准号:
    62306139
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
视觉想象的脑机交互机制及其脑控机器人应用
  • 批准号:
    62366026
  • 批准年份:
    2023
  • 资助金额:
    33 万元
  • 项目类别:
    地区科学基金项目
基于无创多模式脑成像手写想象输入汉字BCI的神经编码机制和解码研究
  • 批准号:
    62376112
  • 批准年份:
    2023
  • 资助金额:
    51 万元
  • 项目类别:
    面上项目

相似海外基金

Novel freely moving monkey framework for the study of naturalistic behaviors
用于研究自然行为的新型自由移动猴子框架
  • 批准号:
    10665292
  • 财政年份:
    2023
  • 资助金额:
    $ 63.73万
  • 项目类别:
Investigating Novel Transcriptional Mechanisms for Visual Neural Circuit Development and Function using Zebrafish
使用斑马鱼研究视觉神经回路发育和功能的新型转录机制
  • 批准号:
    10334879
  • 财政年份:
    2022
  • 资助金额:
    $ 63.73万
  • 项目类别:
Underpinnings of corneal innervation: anatomical, molecular, and functional studies of corneal sensory afferents in physiologic and pathologic states
角膜神经支配的基础:生理和病理状态下角膜感觉传入的解剖学、分子和功能研究
  • 批准号:
    10701843
  • 财政年份:
    2022
  • 资助金额:
    $ 63.73万
  • 项目类别:
Elucidating the developmental and molecular mechanism of chorioretinal anastomoses in a model of type 3 neovascular age-related macular degeneration
阐明3型新生血管性年龄相关性黄斑变性模型中脉络膜视网膜吻合的发育和分子机制
  • 批准号:
    10672984
  • 财政年份:
    2021
  • 资助金额:
    $ 63.73万
  • 项目类别:
Activity-dependent development of chandelier cell cortical integration and connectivity
枝形吊灯细胞皮层整合和连接的活动依赖性发育
  • 批准号:
    9123818
  • 财政年份:
    2016
  • 资助金额:
    $ 63.73万
  • 项目类别:
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了