面向复杂环境的RGB-D多视觉模态场景识别与理解技术研究

结题报告
项目介绍
AI项目解读

基本信息

  • 批准号:
    61902378
  • 项目类别:
    青年科学基金项目
  • 资助金额:
    25.0万
  • 负责人:
  • 依托单位:
  • 学科分类:
    F0210.计算机图像视频处理与多媒体技术
  • 结题年份:
    2022
  • 批准年份:
    2019
  • 项目状态:
    已结题
  • 起止时间:
    2020-01-01 至2022-12-31

项目摘要

Focusing on the scene recognition and understanding tasks under the complex environments, we investigate the researches on RGB-D multi-modal data. First, in order to address the lack of depth data problem, we propose to automatically detect saliency regions in weak supervision, which are used for data augmentation to train depth modality-specific CNN model. The depth modality-specific model trained with saliency regions are used as initialization for the following tasks. Then, we propose to implement multiple types of attention mechanism for RGB-D modality fusion. By designing convolutional kernels with gradient based operators, feature maps of gradients are obtained with convolution operations. And multiple types of attentions, such as temporal, spatial and modal attentions, are calculated and implemented to address problems of frame blurring, depth information incompleteness and modality adaptive fusion. Finally, in order to address the object co-occurrence problem, we propose to detect spatial relations between objects, and generate local captions based on objects and their spatial relations, which allow us to understand scenes with natural languages. Since the local captions with spatial relations are more discriminative to the scenes with object co-occurrence, we propose to embed local captions with LSTM model to further predict scene labels.
面向多种复杂环境下场景识别与理解任务,本项目拟基于RGB-D多视觉模态数据展开一系列研究。首先针对因采集困难而导致的深度模态数据匮乏问题,研究弱监督场景显著性区域自动挖掘技术,通过挖掘显著性区域实现数据增广,实现只利用有限数据的深度模态CNN模型训练,为场景识别与理解技术提供深度模态模型初始化参数;其次研究应用多注意力机制的多模态视觉融合技术,基于像素梯度等基本信息构建特定卷积核,并在时序、空间和模态等多维度学习注意力机制,以解RGB视频帧模糊、部分视频帧深度信息缺失和RGB-D多模态自适应融合等问题,实现复杂环境下的场景识别,为后续场景理解任务提供先验知识;针对因物体共生导致的场景混淆问题,研究场景中物体间关系建模与局部区域图题表达技术,通过建模场景内物体间的空间关系生成相应的基于自然语言的图题表达,实现场景局部区域理解,并基于迭代神经网络对图题表达编码,进一步推理场景类别。

结项摘要

面向多模态交互的场景识别与理解中的数据分布不均、场景环境异常因素干扰、多模态数据视觉差异大、场景类内差异类见相似等问题,本项目拟基于RGB-D多视觉模态数据展开一系列研究。首先针对训练数据不足及长尾分布问题,研究基于数据增广与弱监督训练的方法研究,提出了图像有效区域增广方法,基于成对一致性学习,通过约束两种不同输入的模型输出一致性,来实现一种对抗性学习的机制进而促使模型去探索更多的有用区域信息;其次针对多模态视觉差异性大的问题,研究基于多注意力机制的多模态自适应融合方法,面向真实复杂的场景环境,提出了一种基于RGB-D数据的异常因素感知卷积方法,通过感知时序和空间维度的梯度差异,进而感知空间的关照、视频模糊、局部深度缺失等异常因素,并利用多注意力机制自适应调整模型权重,以抑制异常因素的干扰;然后针对场景类间物体共生及类内空间分布差异性大的问题,研究基于场景空间分布建模,将场景划分为区域表示,并挖掘区域间的空间及语义关系以构建场景图,提出了一种基于图卷积网络的区域建模方法,通过构建虚拟的全局节点实现整体图像的分类;还提出了一种基于马尔可夫随机场的概率图模型,以实现局部到全局的最优化融合,有效建模了场景的空间分布。基于所提出算法,本项目开发了一套RGB-D实时场景识别演示系统和视觉导航系统。

项目成果

期刊论文数量(4)
专著数量(0)
科研奖励数量(2)
会议论文数量(5)
专利数量(1)
Spatio-Temporal Memory Attention for Image Captioning
图像描述的时空记忆注意力
  • DOI:
    --
  • 发表时间:
    2020
  • 期刊:
    IEEE Transactions on Image Processing
  • 影响因子:
    10.6
  • 作者:
    Junzhong Ji;Boyue Wang;Cheng Xu;Xiaodan Zhang;Xinhang Song
  • 通讯作者:
    Xinhang Song
Amorphous Region Context Modeling for Scene Recognition
用于场景识别的非晶区域上下文建模
  • DOI:
    --
  • 发表时间:
    2020
  • 期刊:
    IEEE Transactions on Multimedia
  • 影响因子:
    7.3
  • 作者:
    Haitao Zeng;Xinhang Song;Gongwei Chen;Shuqiang Jiang
  • 通讯作者:
    Shuqiang Jiang

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--"}}
  • 发表时间:
    {{ item.publish_year || "--" }}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--"}}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ patent.updateTime }}

其他文献

其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--" }}
  • 发表时间:
    {{ item.publish_year || "--"}}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--" }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}
empty
内容获取失败,请点击重试
重试联系客服
title开始分析
查看分析示例
此项目为已结题,我已根据课题信息分析并撰写以下内容,帮您拓宽课题思路:

AI项目思路

AI技术路线图

宋新航的其他基金

数据驱动与场景知识引导的视觉导航技术研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    55 万元
  • 项目类别:
    面上项目

相似国自然基金

{{ item.name }}
  • 批准号:
    {{ item.ratify_no }}
  • 批准年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}

相似海外基金

{{ item.name }}
{{ item.translate_name }}
  • 批准号:
    {{ item.ratify_no }}
  • 财政年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了

AI项目解读示例

课题项目:调控A型流感病毒诱导IFN-β表达的机制研究

AI项目摘要:

本研究聚焦于TRIM2蛋白在A型流感病毒诱导的IFN-β表达中的调控机制。A型流感病毒是全球性健康问题,其感染可导致严重的呼吸道疾病。IFN-β作为关键的抗病毒因子,其表达水平对抗病毒防御至关重要。然而,TRIM2如何调控IFN-β的表达尚未明确。本研究假设TRIM2通过与病毒RNA或宿主因子相互作用,影响IFN-β的产生。我们将采用分子生物学、细胞生物学和免疫学方法,探索TRIM2与A型流感病毒诱导IFN-β表达的关系。预期结果将揭示TRIM2在抗病毒免疫反应中的作用,为开发新的抗病毒策略提供理论基础。该研究对理解宿主抗病毒机制具有重要科学意义,并可能对临床治疗流感病毒感染提供新的视角。

AI项目思路:

科学问题:TRIM2如何调控A型流感病毒诱导的IFN-β表达?
前期研究:已有研究表明TRIM2参与抗病毒反应,但其具体机制尚不明确。
研究创新点:本研究将深入探讨TRIM2在IFN-β表达中的直接作用机制。
技术路线:包括病毒学、分子生物学、细胞培养和免疫检测技术。
关键技术:TRIM2与病毒RNA的相互作用分析,IFN-β启动子活性检测。
实验模型:使用A型流感病毒感染的细胞模型进行研究。

AI技术路线图

        graph TD
          A[研究起始] --> B[文献回顾与假设提出]
          B --> C[实验设计与方法学准备]
          C --> D[A型流感病毒感染模型建立]
          D --> E[TRIM2与病毒RNA相互作用分析]
          E --> F[TRIM2对IFN-β启动子活性的影响]
          F --> G[IFN-β表达水平测定]
          G --> H[TRIM2功能丧失与获得研究]
          H --> I[数据收集与分析]
          I --> J[结果解释与科学验证]
          J --> K[研究结论与未来方向]
          K --> L[研究结束]
      
关闭
close
客服二维码