CHS: Small: Learning to Automatically Design Interior Spaces
CHS:小:学习自动设计室内空间
基本信息
- 批准号:1907547
- 负责人:
- 金额:$ 49.83万
- 依托单位:
- 依托单位国家:美国
- 项目类别:Standard Grant
- 财政年份:2019
- 资助国家:美国
- 起止时间:2019-10-01 至 2024-06-30
- 项目状态:已结题
- 来源:
- 关键词:
项目摘要
People spend a large part of their lives indoors, in bedrooms, living rooms, offices, kitchens, etc. The demand for virtual versions of these spaces has never been higher; robotics, computer vision, architecture, interior design, virtual and augmented reality -- all of these fields need to create high-fidelity digital instances of real-world indoor scenes. To meet this need, this project will develop new generative models of indoor scenes that can rapidly synthesize novel environments. To achieve this goal, a scene synthesis system should be data driven, be able to quickly generate a variety of plausible and visually appealing results, and be user-controllable. While prior work has addressed indoor scene synthesis, no existing approach satisfies all of these requirements. Not only will this project achieve that goal, it also includes efforts to use the new software system for training robots to navigate. Broader impact of project outcomes will be enhanced through industrial technology transfer in collaboration with two furniture and interior design companies. The research will create freely available online demos, and will engage and mentor female students as research assistants.The first component of the envisaged system will be a new scene generative model based on deep convolutional neural networks that unifies a detailed, image-based representation of scenes based on floor plans with a discrete, symbolic representation of scenes based on object relationship graphs, thereby gaining the benefits of both to generate a variety of plausible scenes. Convolutions on both graphs and images will be employed to make synthesis decisions based on the relevant spatial context in the scene; the resulting model will be fast, controllable, and fully data driven. The system's second component will be a model of the visual compatibility of scene objects, which is necessary for generating visually appealing scenes. This model will exploit a convolutional network to analyze rendered views of the scene, capturing the visual appearance of the scene and objects in it; the network will be trained on a new dataset of professionally designed interior scenes.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
人们在室内,卧室,客厅,办公室,厨房等中度过了很大一部分生活。这些空间的虚拟版本的需求从未如此高。机器人技术,计算机视觉,体系结构,室内设计,虚拟和增强现实 - 所有这些领域都需要创建现实世界中室内场景的高保真数字实例。为了满足这一需求,该项目将开发新的室内场景模型,这些模型可以快速综合新的环境。为了实现这一目标,场景合成系统应该是数据驱动的,能够快速生成各种合理且视觉上吸引人的结果,并可以控制用户。尽管先前的工作已经解决了室内场景的综合,但现有的方法不满足所有这些要求。该项目不仅可以实现该目标,还包括使用新软件系统进行培训机器人进行导航的努力。 通过与两家家具和室内设计公司合作,将通过工业技术转移来增强项目成果的更广泛影响。 这项研究将创建免费的在线演示,并将吸引并指导女学生作为研究助理。设想的系统的第一个组成部分将是一种基于深度卷积神经网络的新场景生成模型,该模型将基于离散的,基于对象关系图的象征性的场景,基于平面图的场景统一详细的,基于图像的场景表示,从而使场景均产生各种范围,从而获得了综合的范围。图形和图像上的卷积都将用于基于场景中相关的空间上下文做出综合决策。最终的模型将是快速,可控且完全数据驱动的。系统的第二个组件将是场景对象的可视兼容性的模型,这对于生成视觉吸引力的场景是必不可少的。该模型将利用一个卷积网络来分析场景的渲染视图,捕获场景和对象的视觉外观;该网络将在新的专业设计的室内场景的新数据集中进行培训。该奖项反映了NSF的法定任务,并使用基金会的知识分子优点和更广泛的影响评估标准,被认为值得通过评估来获得支持。
项目成果
期刊论文数量(3)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Roominoes: Generating Novel 3D Floor Plans From Existing 3D Rooms
- DOI:10.1111/cgf.14357
- 发表时间:2021-08
- 期刊:
- 影响因子:2.5
- 作者:Kai Wang;Xianghao Xu-;Leon Lei;Selena Ling;Natalie Lindsay;Angel X. Chang;M. Savva;Daniel Ritchie
- 通讯作者:Kai Wang;Xianghao Xu-;Leon Lei;Selena Ling;Natalie Lindsay;Angel X. Chang;M. Savva;Daniel Ritchie
Learning Generative Models of 3D Structures
- DOI:10.1111/cgf.14020
- 发表时间:2020-05-01
- 期刊:
- 影响因子:2.5
- 作者:Chaudhuri, Siddhartha;Ritchie, Daniel;Zhang, Hao
- 通讯作者:Zhang, Hao
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
数据更新时间:{{ journalArticles.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ monograph.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ sciAawards.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ conferencePapers.updateTime }}
{{ item.title }}
- 作者:
{{ item.author }}
数据更新时间:{{ patent.updateTime }}
Daniel Ritchie其他文献
Probabilistic programming for procedural modeling and design
用于过程建模和设计的概率编程
- DOI:
- 发表时间:
2016 - 期刊:
- 影响因子:0
- 作者:
Daniel Ritchie - 通讯作者:
Daniel Ritchie
Supplementary Document for CLIP-Sculptor
CLIP-Sculptor 的补充文档
- DOI:
- 发表时间:
2023 - 期刊:
- 影响因子:0
- 作者:
Aditya Sanghi;Rao Fu;Vivian Liu;Karl D. D. Willis;Hooman Shayani;A. Khasahmadi;Srinath Sridhar;Daniel Ritchie - 通讯作者:
Daniel Ritchie
High-Throughput Automated Microscopy Platform for the Allen Brain Atlas
适用于艾伦脑图谱的高通量自动显微镜平台
- DOI:
10.1016/j.jala.2007.07.003 - 发表时间:
2007 - 期刊:
- 影响因子:0
- 作者:
C. Slaughterbeck;S. Datta;Simon C. Smith;Daniel Ritchie;Paul E. Wohnoutka - 通讯作者:
Paul E. Wohnoutka
Shape From Tracing Report
追踪报告中的形状
- DOI:
- 发表时间:
2020 - 期刊:
- 影响因子:0
- 作者:
L. Cohen;Daniel Ritchie - 通讯作者:
Daniel Ritchie
Learning Finite Linear Temporal Logic Formulas
学习有限线性时态逻辑公式
- DOI:
- 发表时间:
2021 - 期刊:
- 影响因子:0
- 作者:
Homer Walke;Michael S. Littman;Daniel Ritchie - 通讯作者:
Daniel Ritchie
Daniel Ritchie的其他文献
{{
item.title }}
{{ item.translation_title }}
- DOI:
{{ item.doi }} - 发表时间:
{{ item.publish_year }} - 期刊:
- 影响因子:{{ item.factor }}
- 作者:
{{ item.authors }} - 通讯作者:
{{ item.author }}
{{ truncateString('Daniel Ritchie', 18)}}的其他基金
CISE-ANR: HCC: Small: Learning to Translate Freehand Design Drawings into Parametric CAD Programs
CISE-ANR:HCC:小型:学习将手绘设计图转换为参数化 CAD 程序
- 批准号:
2315354 - 财政年份:2023
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
REU Site: Artificial Intelligence for Computational Creativity
REU 网站:人工智能促进计算创造力
- 批准号:
2150184 - 财政年份:2022
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CAREER: Learning Neurosymbolic 3D Models
职业:学习神经符号 3D 模型
- 批准号:
1941808 - 财政年份:2020
- 资助金额:
$ 49.83万 - 项目类别:
Continuing Grant
CCRI: Planning: A Community-Standard, Large-Scale Synthetic 3D Scene Dataset for Scene Analysis and Synthesis
CCRI:规划:用于场景分析和合成的社区标准、大规模合成 3D 场景数据集
- 批准号:
2016532 - 财政年份:2020
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CRII: CHS: Learning Procedural Modeling Programs for Computer Graphics from Examples
CRII:CHS:从示例中学习计算机图形学程序建模程序
- 批准号:
1753684 - 财政年份:2018
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
相似国自然基金
基于深度学习的小样本侧扫声纳小目标探测
- 批准号:42374050
- 批准年份:2023
- 资助金额:53 万元
- 项目类别:面上项目
基于图表示深度学习的全新小分子先导化合物筛选方法研究
- 批准号:62372375
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
不平衡数据下基于多源域迁移学习的小微企业信用风险评估研究
- 批准号:72301093
- 批准年份:2023
- 资助金额:30.00 万元
- 项目类别:青年科学基金项目
基于多时序多模态分子影像Delta深度融合学习预测非小细胞肺癌免疫治疗疗效的研究
- 批准号:82371994
- 批准年份:2023
- 资助金额:50 万元
- 项目类别:面上项目
基于无监督深度学习的复材小尺寸缺陷热成像表征方法研究
- 批准号:62301507
- 批准年份:2023
- 资助金额:30 万元
- 项目类别:青年科学基金项目
相似海外基金
CHS: Small: DeepCrowd: A Crowd-assisted Deep Learning-based Disaster Scene Assessment System with Active Human-AI Interactions
CHS:小型:DeepCrowd:一种基于人群辅助、基于深度学习的灾难场景评估系统,具有主动人机交互功能
- 批准号:
2130263 - 财政年份:2021
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CHS: Small: DeepCrowd: A Crowd-assisted Deep Learning-based Disaster Scene Assessment System with Active Human-AI Interactions
CHS:小型:DeepCrowd:一种基于人群辅助、基于深度学习的灾难场景评估系统,具有主动人机交互功能
- 批准号:
2008228 - 财政年份:2021
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CHS: Small: Experiential Learning Systems for Promoting Wellness in Low-Income Families
CHS:小型:促进低收入家庭健康的体验式学习系统
- 批准号:
2050309 - 财政年份:2020
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CHS: Small: Developing Novel Surface Computing Technologies and Learning Experiences to Engage Underrepresented Youth in STEM
CHS:小型:开发新颖的表面计算技术和学习体验,让代表性不足的年轻人参与 STEM
- 批准号:
2006524 - 财政年份:2020
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant
CHS: Small: Collaborative Research: Learning Maker Skills By Building Game Props
CHS:小型:协作研究:通过构建游戏道具来学习创客技能
- 批准号:
2008028 - 财政年份:2020
- 资助金额:
$ 49.83万 - 项目类别:
Standard Grant