面向城市公共空间规划的视频分析及活力量化预测研究

结题报告
项目介绍
AI项目解读

基本信息

  • 批准号:
    61871278
  • 项目类别:
    面上项目
  • 资助金额:
    66.0万
  • 负责人:
  • 依托单位:
  • 学科分类:
    F0117.多媒体信息处理
  • 结题年份:
    2022
  • 批准年份:
    2018
  • 项目状态:
    已结题
  • 起止时间:
    2019-01-01 至2022-12-31

项目摘要

Precise perception of the human in public spaces is critical for “People First” urban planning for public spaces. However, existing works for quantified urban public space planning cannot fully analyze the dynamic human activities consistently. ..In order to fully take advantages of video data, this work will propose new frameworks for video analysis, vibrancy quantification and prediction, to meet the need of human perception for urban public space planning. The main works are as follows: (1) Research on the crowd emotion analyzing method for the Arousal-Valence emotional space. The multi-dimensional spatial-temporal fusion network will be designed to analyze the multi-scale spatial and temporal emotion for the crowd and the individual. (2) Research on the behavior understanding, vibrancy presentation analysis and prediction method for complex scenes. The understanding of group behaviors and vibrancy analysis within the public scene are accomplished under the guidance of the public space’s behavior attributes for vibrancy presentation. (3) Research on the quantitative and predictive methods for public space vibrancy. The regression model will be proposed for quantified vibrancy analysis. The multi-scale prediction deep networks will also be proposed to predict the vibrancy for a given area. The resulted vibrancy analysis and prediction will provide a strong scientific basis for public space planning and decision-making. ..The research work will provide new theoretical and technological supports for promoting the deep integration of AI and urban planning, and will also create favorable conditions for the application of video analysis to urban planning.
对公共空间中的“人”进行精准感知,是“以人为本”的城市公共空间规划的关键。而目前城市公共空间定量研究无法对高度动态化的人类活动场景进行持续、全面地分析。.本项目拟利用视频数据的优势,针对城市公共空间规划对“人”的感知需求,研究面向群体感知的视频分析及活力量化预测新框架。主要内容包括:(1)研究Arousal-Valence情感空间群体情绪分析方法。设计多维度时空融合网络,实现对群体及个体的多尺度时空情绪分析。(2)研究复杂场景行为理解及活力表征分析方法。在公共空间活力行为属性引导下,实现场景中群组行为理解及活力表征分析。(3)研究公共空间活力量化及区域预测方法。研究活力量化模型完成活力指数分析,设计多尺度预测网络实现区域活力预测,为公共空间规划决策提供科学依据。.研究工作的开展将为推动人工智能与城市规划的深度融合提供新的理论和技术支持,同时也将为视频分析的城市规划应用创造良好条件。

结项摘要

对公共空间中的“人”进行精准感知,是“以人为本”的城市公共空间规划的关键。城市复杂场景下,对个体/群组的时空情绪和时空行为进行全面分析,是实现活力表征及量化的前提条件和技术路径,而目前城市公共空间定量研究无法对高度动态化的人类活动场景进行持续、全面地分析。. 本项目利用视频数据的优势,针对城市公共空间规划对“人”的感知需求,提出了面向群体感知的视频分析及活力量化预测新框架。本项目完成了以下研究:(1)多尺度时空群体情绪分析方法。提出了多种多尺度的个体/群组时空情绪方法,完成了Valence-Arousal-Dominance情感空间的情绪量化分析,实现了对群体及个体的多尺度时空情绪分析。(2)多群组行为理解及活力表征分析方法。提出了多种多群组时空个体/群组行为识别框架与识别方法,完成了在公共空间复杂场景下的多群组行为分析,并在行为属性引导下,实现了复杂场景中群组行为理解及活力表征分析。(3)基于多维时空人群感知信息的城市公共空间活力量化及区域预测方法。结合社会环境要素提出了公共空间活力量化方法并建立了分析与评价框架,同时面向物理环境要素提出了多种感知方法,探索了人-境交互机制,为更全面的活力预测提供了方法和数据支持。. 本项目面向城市公共空间规划对“人”的感知需求,从情绪、行为等角度深入开展了活力表征研究,完成了面向群体感知的视频分析及活力量化新框架,同时结合环境感知方法分析了人-境交互规律,以优化活力预测技术路线。项目的研究成果为人工智能与城市规划的深度融合提供新的理论和技术支持,同时也为视频分析应用于城市规划创造良好条件。

项目成果

期刊论文数量(55)
专著数量(0)
科研奖励数量(0)
会议论文数量(9)
专利数量(30)
Relationship existence recognition-based social group detection in urban public spaces
基于关系存在识别的城市公共空间社交群体检测
  • DOI:
    10.1016/j.neucom.2022.10.042
  • 发表时间:
    2022
  • 期刊:
    NEUROCOMPUTING
  • 影响因子:
    6
  • 作者:
    Lindong Li;Linbo Qing;Li Guo;Yonghong Peng
  • 通讯作者:
    Yonghong Peng
HF-SRGR: a new hybrid feature-driven social relation graph reasoning model
HF-SRGR:一种新的混合特征驱动的社会关系图推理模型
  • DOI:
    10.1007/s00371-021-02244-w
  • 发表时间:
    2021
  • 期刊:
    The Visual Computer
  • 影响因子:
    --
  • 作者:
    Lindong Li;Linbo Qing;Yuchen Wang;Jie Su;Yongqiang Cheng;Yonghong Peng
  • 通讯作者:
    Yonghong Peng
基于贝塞尔曲线的测井曲线动态绘制
  • DOI:
    10.1103/physrevlett.123.192301
  • 发表时间:
    2019
  • 期刊:
    信息技术与网络安全
  • 影响因子:
    --
  • 作者:
    刘慧婕;卿粼波;熊淑华;张余强
  • 通讯作者:
    张余强
基于改进多尺度特征图的目标快速检测与识别算法
  • DOI:
    10.3788/lop56.021002
  • 发表时间:
    2019
  • 期刊:
    激光与光电子学进展
  • 影响因子:
    --
  • 作者:
    单倩文;郑新波;何小海;滕奇志;吴晓红
  • 通讯作者:
    吴晓红
Multi-scale features based interpersonal relation recognition using higher-order graph neural network
基于多尺度特征的高阶图神经网络人际关系识别
  • DOI:
    10.1016/j.neucom.2021.05.097
  • 发表时间:
    2021
  • 期刊:
    Neurocomputing
  • 影响因子:
    6
  • 作者:
    Jianjun Gao;Linbo Qing;Lindong Li;Yongqiang Cheng;Yonghong Peng
  • 通讯作者:
    Yonghong Peng

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--"}}
  • 发表时间:
    {{ item.publish_year || "--" }}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--"}}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.authors }}

数据更新时间:{{ patent.updateTime }}

其他文献

基于自适应块组割先验的噪声图像超分辨率重建(EI:20172803930242)
  • DOI:
    --
  • 发表时间:
    2017
  • 期刊:
    自动化学报
  • 影响因子:
    --
  • 作者:
    李滔;何小海;卿粼波;滕奇志
  • 通讯作者:
    滕奇志
集成超分辨率重建的图像压缩编码新型框架及其实现
  • DOI:
    --
  • 发表时间:
    --
  • 期刊:
    数据采集与处理
  • 影响因子:
    --
  • 作者:
    何小海;吴 笛;滕奇志;卿粼波;黄建秋
  • 通讯作者:
    黄建秋
一种基于时域相关性的高性能视频编码快速帧间预测单元模式判决算法
  • DOI:
    --
  • 发表时间:
    2013
  • 期刊:
    电子与信息学报
  • 影响因子:
    --
  • 作者:
    李元;何小海;钟国韵;卿粼波
  • 通讯作者:
    卿粼波
一种稳健的多视频时空超分辨率重建算法
  • DOI:
    --
  • 发表时间:
    2011
  • 期刊:
    电子与信息学报
  • 影响因子:
    --
  • 作者:
    宋海英;何小海;吴媛媛;卿粼波
  • 通讯作者:
    卿粼波
基于MVMW的H.264/AVC自适应快速帧间模式决策算法
  • DOI:
    --
  • 发表时间:
    2013
  • 期刊:
    系统工程与电子技术
  • 影响因子:
    --
  • 作者:
    吴笛;卿粼波;何小海
  • 通讯作者:
    何小海

其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi || "--" }}
  • 发表时间:
    {{ item.publish_year || "--"}}
  • 期刊:
    {{ item.journal_name }}
  • 影响因子:
    {{ item.factor || "--" }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}
empty
内容获取失败,请点击重试
重试联系客服
title开始分析
查看分析示例
此项目为已结题,我已根据课题信息分析并撰写以下内容,帮您拓宽课题思路:

AI项目思路

AI技术路线图

卿粼波的其他基金

面向WMSN的分布式多视点视频编码及鲁棒传输关键技术研究
  • 批准号:
    61201388
  • 批准年份:
    2012
  • 资助金额:
    25.0 万元
  • 项目类别:
    青年科学基金项目

相似国自然基金

{{ item.name }}
  • 批准号:
    {{ item.ratify_no }}
  • 批准年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}

相似海外基金

{{ item.name }}
{{ item.translate_name }}
  • 批准号:
    {{ item.ratify_no }}
  • 财政年份:
    {{ item.approval_year }}
  • 资助金额:
    {{ item.support_num }}
  • 项目类别:
    {{ item.project_type }}
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了

AI项目解读示例

课题项目:调控A型流感病毒诱导IFN-β表达的机制研究

AI项目摘要:

本研究聚焦于TRIM2蛋白在A型流感病毒诱导的IFN-β表达中的调控机制。A型流感病毒是全球性健康问题,其感染可导致严重的呼吸道疾病。IFN-β作为关键的抗病毒因子,其表达水平对抗病毒防御至关重要。然而,TRIM2如何调控IFN-β的表达尚未明确。本研究假设TRIM2通过与病毒RNA或宿主因子相互作用,影响IFN-β的产生。我们将采用分子生物学、细胞生物学和免疫学方法,探索TRIM2与A型流感病毒诱导IFN-β表达的关系。预期结果将揭示TRIM2在抗病毒免疫反应中的作用,为开发新的抗病毒策略提供理论基础。该研究对理解宿主抗病毒机制具有重要科学意义,并可能对临床治疗流感病毒感染提供新的视角。

AI项目思路:

科学问题:TRIM2如何调控A型流感病毒诱导的IFN-β表达?
前期研究:已有研究表明TRIM2参与抗病毒反应,但其具体机制尚不明确。
研究创新点:本研究将深入探讨TRIM2在IFN-β表达中的直接作用机制。
技术路线:包括病毒学、分子生物学、细胞培养和免疫检测技术。
关键技术:TRIM2与病毒RNA的相互作用分析,IFN-β启动子活性检测。
实验模型:使用A型流感病毒感染的细胞模型进行研究。

AI技术路线图

        graph TD
          A[研究起始] --> B[文献回顾与假设提出]
          B --> C[实验设计与方法学准备]
          C --> D[A型流感病毒感染模型建立]
          D --> E[TRIM2与病毒RNA相互作用分析]
          E --> F[TRIM2对IFN-β启动子活性的影响]
          F --> G[IFN-β表达水平测定]
          G --> H[TRIM2功能丧失与获得研究]
          H --> I[数据收集与分析]
          I --> J[结果解释与科学验证]
          J --> K[研究结论与未来方向]
          K --> L[研究结束]
      
关闭
close
客服二维码