RI: Small: Collaborative Research: Exploring Audiovisual Emotion Perception using Data-Driven Computational Modeling

RI:小型:协作研究:使用数据驱动的计算模型探索视听情感感知

基本信息

项目摘要

This project explores perception-driven models of human audio-visual emotion using statistical analyses, data-driven computational modeling, and implicit sensing. Emotion underlies and modulates human communication. It is used in the diagnosis of many mental health conditions and is tracked in therapeutic interventions. Research in emotion perception seeks to identify models that describe the felt sense of 'typical' emotion expression -- i.e., an observer/evaluator's attribution of the emotional state of the speaker. This felt sense is a function of the methods through which individuals integrate the presented multi-modal emotional information. However, the nature of the interaction of the multi-modal cues is still an open question. This project will investigate multi-modal cue integration by studying how emotional inconsistency affects human perceptual judgment. In pursuit of this goal, the research objectives of this proposal are (1) to identify and validate primary and secondary audio-visual cues responsible for emotion perception, (2) to create a data-driven model to automatically predict the emotion perception of an evaluator, and (3) to predict evaluator state using implicit physiological and body gesture cues. The first research objective addresses the open question of how distal cues, the encoding of a speaker's communicative goals, interact and result in the felt sense of specific emotion states. Novel techniques will be used to identify emotionally salient distal cues using emotionally consistent and inconsistent audio-visual information. This identification has implications in the design of emotion classification algorithms and the emotional behavior of affective agents. The second research thrust addresses the open question of how human-centered models (rather than data-driven models) can be designed for use in emotion classification tasks. The project will investigate the efficacy of novel dynamic structures to model emotionally inconsistent information. These new structures will provide insights into the development of human-centered emotion classification inspired by the emotion perception process, rather than solely on data fluctuations. The third research objective addresses the open question regarding the effect of audio-visual emotion evaluation tasks on the evaluator's internal state. We will assess evaluator inattention in the context of emotional evaluation tasks. Models that can accurately predict evaluator inattention have applications in long-term human-computer and human-robot interaction platforms. The insights gained from this project will facilitate the design of emotion-focused algorithms that replicate the process by which humans interpret and integrate emotional audiovisual signals. It will also aid in the creation of emotional interfaces for health informatics applications, which will lead to more specifically targeted interventions and treatments for many mental health conditions including schizophrenia, depression, and autism.
该项目利用统计分析、数据驱动的计算模型和隐式感知来探索人类视听情感的感知驱动模型。 情感是人类交流的基础并调节着人类交流。 它用于诊断许多心理健康状况,并在治疗干预中进行跟踪。 情绪感知研究旨在确定描述“典型”情绪表达的感受的模型,即观察者/评估者对说话者情绪状态的归因。 这种感觉是个人整合所呈现的多模态情感信息的方法的函数。 然而,多模态线索相互作用的本质仍然是一个悬而未决的问题。 该项目将通过研究情绪不一致如何影响人类感知判断来研究多模式线索整合。 为了实现这一目标,本提案的研究目标是(1)识别和验证负责情绪感知的主要和次要视听线索,(2)创建一个数据驱动模型来自动预测一个人的情绪感知。 (3) 使用隐含的生理和身体姿势线索来预测评估者状态。第一个研究目标解决了一个悬而未决的问题,即远端线索(说话者交际目标的编码)如何相互作用并导致特定情绪状态的感受。 新技术将用于利用情感一致和不一致的视听信息来识别情感上显着的远端线索。 这种识别对情感分类算法的设计和情感主体的情感行为具有影响。 第二个研究重点解决了如何设计以人为中心的模型(而不是数据驱动的模型)以用于情感分类任务的悬而未决的问题。 该项目将研究新颖的动态结构对情感不一致信息进行建模的有效性。 这些新结构将为受情绪感知过程启发的以人为中心的情绪分类的发展提供见解,而不仅仅是数据波动。 第三个研究目标解决了有关视听情感评估任务对评估者内部状态的影响的悬而未决的问题。 我们将在情感评估任务的背景下评估评估者的注意力不集中。 能够准确预测评估者注意力不集中的模型在长期人机和人机交互平台中具有应用。 从该项目中获得的见解将有助于设计以情感为中心的算法,该算法复制人类解释和整合情感视听信号的过程。 它还将有助于为健康信息学应用创建情感界面,从而为包括精神分裂症、抑郁症和自闭症在内的许多心理健康状况提供更有针对性的干预和治疗。

项目成果

期刊论文数量(0)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Emily Provost其他文献

Emily Provost的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Emily Provost', 18)}}的其他基金

RI: Small: Advancing the Science of Generalizable and Personalizable Speech-Centered Self-Report Emotion Classifiers
RI:小:推进以语音为中心的可概括和个性化的自我报告情绪分类器的科学
  • 批准号:
    2230172
  • 财政年份:
    2022
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
RI: Small: Speech-Centered Robust and Generalizable Measurements of "In the Wild" Behavior for Mental Health Symptom Severity Tracking
RI:小:以语音为中心的稳健且可概括的“野外”行为测量,用于心理健康症状严重程度跟踪
  • 批准号:
    2006618
  • 财政年份:
    2020
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
A Workshop for Young Female Researchers in Speech Science and Technology
语音科学与技术领域年轻女性研究人员研讨会
  • 批准号:
    1835284
  • 财政年份:
    2018
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
CAREER: Automatic Speech-Based Longitudinal Emotion and Mood Recognition for Mental Health Monitoring and Treatment
职业:基于语音的自动纵向情感和情绪识别,用于心理健康监测和治疗
  • 批准号:
    1651740
  • 财政年份:
    2017
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Continuing Grant
WORKSHOP: Doctoral Consortium at the International Conference on Multimodal Interaction (ICMI 2016)
研讨会:多模式交互国际会议上的博士联盟 (ICMI 2016)
  • 批准号:
    1641044
  • 财政年份:
    2016
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant

相似国自然基金

诊疗一体化PS-Hc@MB协同训练介导脑小血管病康复的作用及机制研究
  • 批准号:
    82372561
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
非小细胞肺癌MECOM/HBB通路介导血红素代谢异常并抑制肿瘤起始细胞铁死亡的机制研究
  • 批准号:
    82373082
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
基于胆碱能皮层投射纤维探讨脑小血管病在帕金森病步态障碍中的作用及机制研究
  • 批准号:
    82301663
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
关于丢番图方程小素数解上界估计的研究
  • 批准号:
    12301005
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
嗅球小胶质细胞P2X7受体在变应性鼻炎发生帕金森病样改变中的作用与机制研究
  • 批准号:
    82371119
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目

相似海外基金

Collaborative Research: RI: Small: Foundations of Few-Round Active Learning
协作研究:RI:小型:少轮主动学习的基础
  • 批准号:
    2313131
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: Motion Fields Understanding for Enhanced Long-Range Imaging
合作研究:RI:小型:增强远程成像的运动场理解
  • 批准号:
    2232298
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: Deep Constrained Learning for Power Systems
合作研究:RI:小型:电力系统的深度约束学习
  • 批准号:
    2345528
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: End-to-end Learning of Fair and Explainable Schedules for Court Systems
合作研究:RI:小型:法院系统公平且可解释的时间表的端到端学习
  • 批准号:
    2232055
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: End-to-end Learning of Fair and Explainable Schedules for Court Systems
合作研究:RI:小型:法院系统公平且可解释的时间表的端到端学习
  • 批准号:
    2232054
  • 财政年份:
    2023
  • 资助金额:
    $ 24.84万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了