RI: Small: Collaborative Research: Exploring Audiovisual Emotion Perception using Data-Driven Computational Modeling

RI:小型:协作研究:使用数据驱动的计算模型探索视听情感感知

基本信息

项目摘要

This project explores perception-driven models of human audio-visual emotion using statistical analyses, data-driven computational modeling, and implicit sensing. Emotion underlies and modulates human communication. It is used in the diagnosis of many mental health conditions and is tracked in therapeutic interventions. Research in emotion perception seeks to identify models that describe the felt sense of 'typical' emotion expression -- i.e., an observer/evaluator's attribution of the emotional state of the speaker. This felt sense is a function of the methods through which individuals integrate the presented multi-modal emotional information. However, the nature of the interaction of the multi-modal cues is still an open question. This project will investigate multi-modal cue integration by studying how emotional inconsistency affects human perceptual judgment. In pursuit of this goal, the research objectives of this proposal are (1) to identify and validate primary and secondary audio-visual cues responsible for emotion perception, (2) to create a data-driven model to automatically predict the emotion perception of an evaluator, and (3) to predict evaluator state using implicit physiological and body gesture cues. The first research objective addresses the open question of how distal cues, the encoding of a speaker's communicative goals, interact and result in the felt sense of specific emotion states. Novel techniques will be used to identify emotionally salient distal cues using emotionally consistent and inconsistent audio-visual information. This identification has implications in the design of emotion classification algorithms and the emotional behavior of affective agents. The second research thrust addresses the open question of how human-centered models (rather than data-driven models) can be designed for use in emotion classification tasks. The project will investigate the efficacy of novel dynamic structures to model emotionally inconsistent information. These new structures will provide insights into the development of human-centered emotion classification inspired by the emotion perception process, rather than solely on data fluctuations. The third research objective addresses the open question regarding the effect of audio-visual emotion evaluation tasks on the evaluator's internal state. We will assess evaluator inattention in the context of emotional evaluation tasks. Models that can accurately predict evaluator inattention have applications in long-term human-computer and human-robot interaction platforms. The insights gained from this project will facilitate the design of emotion-focused algorithms that replicate the process by which humans interpret and integrate emotional audiovisual signals. It will also aid in the creation of emotional interfaces for health informatics applications, which will lead to more specifically targeted interventions and treatments for many mental health conditions including schizophrenia, depression, and autism.
该项目使用统计分析,数据驱动的计算建模和隐式感知探索了人类视听情绪的感知模型。 情绪是基础并调节人类交流。 它用于诊断许多精神健康状况,并在治疗干预措施中进行了跟踪。 情感感知的研究旨在识别描述“典型”情绪表达感觉的模型,即观察者/评估者对说话者情绪状态的归因。 这种感觉感是个人整合提出的多模式情感信息的方法的函数。 但是,多模式线索相互作用的性质仍然是一个悬而未决的问题。 该项目将通过研究情感上的不一致如何影响人类感知判断的方式来研究多模式提示整合。 为了实现这一目标,该提案的研究目标是(1)识别和验证负责情绪感知的主要和次要音频提示,(2)创建一个数据驱动的模型,以自动预测评估者的情绪感知,以及(3),以使用隐式的生理学和身体和身体和身体遗传来预测评估者状态。第一个研究的目的是解决远端提示,说话者交流目标的编码,互动并导致特定情感状态的感觉的开放问题。 新颖的技术将使用情感一致且不一致的视听信息来识别情感上的远端远端线索。 这种识别对情绪分类算法的设计和情感推动者的情感行为具有影响。 第二项研究推力解决了如何将以人为中心的模型(而不是数据驱动的模型)设计用于情绪分类任务的开放问题。 该项目将研究新型动态结构的功效,以模拟情感上不一致的信息。 这些新结构将提供有关受情感感知过程启发的以人为中心的情感分类发展的见解,而不仅仅是数据波动。 第三项研究目的是解决有关视听情绪评估任务对评估者内部状态的影响的开放问题。 我们将在情感评估任务的背景下评估评估者注意力不集中。 可以准确预测评估者注意力不集中的模型在长期的人类计算机和人类机器人相互作用平台中有应用。 从该项目中获得的见解将有助于设计以情感为中心的算法,这些算法复制了人类解释和整合情感视听信号的过程。 它还将有助于为健康信息学应用创建情感界面,这将导致针对许多精神分裂症,抑郁症和自闭症等许多心理健康状况的更具体针对性的干预措施和治疗。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Emily Provost其他文献

Emily Provost的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Emily Provost', 18)}}的其他基金

RI: Small: Advancing the Science of Generalizable and Personalizable Speech-Centered Self-Report Emotion Classifiers
RI:小:推进以语音为中心的可概括和个性化的自我报告情绪分类器的科学
  • 批准号:
    2230172
  • 财政年份:
    2022
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
RI: Small: Speech-Centered Robust and Generalizable Measurements of "In the Wild" Behavior for Mental Health Symptom Severity Tracking
RI:小:以语音为中心的稳健且可概括的“野外”行为测量,用于心理健康症状严重程度跟踪
  • 批准号:
    2006618
  • 财政年份:
    2020
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
A Workshop for Young Female Researchers in Speech Science and Technology
语音科学与技术领域年轻女性研究人员研讨会
  • 批准号:
    1835284
  • 财政年份:
    2018
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
CAREER: Automatic Speech-Based Longitudinal Emotion and Mood Recognition for Mental Health Monitoring and Treatment
职业:基于语音的自动纵向情感和情绪识别,用于心理健康监测和治疗
  • 批准号:
    1651740
  • 财政年份:
    2017
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Continuing Grant
WORKSHOP: Doctoral Consortium at the International Conference on Multimodal Interaction (ICMI 2016)
研讨会:多模式交互国际会议上的博士联盟 (ICMI 2016)
  • 批准号:
    1641044
  • 财政年份:
    2016
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant

相似国自然基金

基于超宽频技术的小微型无人系统集群协作关键技术研究与应用
  • 批准号:
  • 批准年份:
    2020
  • 资助金额:
    57 万元
  • 项目类别:
    面上项目
异构云小蜂窝网络中基于协作预编码的干扰协调技术研究
  • 批准号:
    61661005
  • 批准年份:
    2016
  • 资助金额:
    30.0 万元
  • 项目类别:
    地区科学基金项目
密集小基站系统中的新型接入理论与技术研究
  • 批准号:
    61301143
  • 批准年份:
    2013
  • 资助金额:
    24.0 万元
  • 项目类别:
    青年科学基金项目
ScFVCD3-9R负载Bcl-6靶向小干扰RNA治疗EAMG的试验研究
  • 批准号:
    81072465
  • 批准年份:
    2010
  • 资助金额:
    31.0 万元
  • 项目类别:
    面上项目
基于小世界网络的传感器网络研究
  • 批准号:
    60472059
  • 批准年份:
    2004
  • 资助金额:
    21.0 万元
  • 项目类别:
    面上项目

相似海外基金

Collaborative Research: RI: Small: Foundations of Few-Round Active Learning
协作研究:RI:小型:少轮主动学习的基础
  • 批准号:
    2313131
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: Motion Fields Understanding for Enhanced Long-Range Imaging
合作研究:RI:小型:增强远程成像的运动场理解
  • 批准号:
    2232298
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: Deep Constrained Learning for Power Systems
合作研究:RI:小型:电力系统的深度约束学习
  • 批准号:
    2345528
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: End-to-end Learning of Fair and Explainable Schedules for Court Systems
合作研究:RI:小型:法院系统公平且可解释的时间表的端到端学习
  • 批准号:
    2232055
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: End-to-end Learning of Fair and Explainable Schedules for Court Systems
合作研究:RI:小型:法院系统公平且可解释的时间表的端到端学习
  • 批准号:
    2232054
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了