Collaborative Research: RI: Small: Robust Deep Learning with Big Imbalanced Data

合作研究:RI:小型:具有大不平衡数据的鲁棒深度学习

基本信息

  • 批准号:
    2110546
  • 负责人:
  • 金额:
    $ 23.35万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Continuing Grant
  • 财政年份:
    2021
  • 资助国家:
    美国
  • 起止时间:
    2021-10-01 至 2024-09-30
  • 项目状态:
    已结题

项目摘要

This project promotes the progress of science and technology development by advancing artificial intelligence (AI) through innovations in scalable and robust computational methods. AI, especially deep learning, has brought transformative impact in industries and quantum leaps in the quality of a wide range of everyday technologies including face recognition, speech recognition and machine translation. However, in order to accelerate the democratization of AI there are still many challenges to be addressed including data issues and model issues. This project seeks to advance AI by addressing one critical issue related to data; i.e., data imbalance. This happens when the collected data for training AI models does not have enough instances representing some property the models are trying to learn. For example, molecules with a certain antibacterial property would be far fewer than all possible molecules making predictions of antibacterial properties challenging. The goal of this project is to develop algorithms with theoretical guarantees to make AI learn more effectively from the big imbalanced data. This project will also contribute to training future professionals in AI and machine learning, including training high school students and under-represented undergraduates. This project investigates a broad family of robust losses for deep learning. The research activities include (i) developing scalable offline stochastic algorithms for solving non-decomposable robust losses that are formulated into min-max, min-min formulations; (ii) developing efficient online stochastic algorithms for solving a family of distributionally robust optimization problems that are cast into compositional optimization problems; (iii) developing effective strategies for training deep neural networks by solving the considered non-decomposable robust losses; (iv) establishing the underlying theory including optimization and statistical convergence of the proposed algorithms. The algorithms are being evaluated on big imbalanced data such as images, graphs, texts.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
该项目通过可扩展和强大的计算方法的创新来推进人工智能(AI),从而促进科学技术的进步。人工智能,尤其是深度学习,给各行各业带来了变革性影响,并为人脸识别、语音识别和机器翻译等各种日常技术的质量带来了质的飞跃。然而,为了加速人工智能的民主化,仍然有许多挑战需要解决,包括数据问题和模型问题。该项目旨在通过解决与数据相关的一个关键问题来推进人工智能的发展;即数据不平衡。当收集的用于训练 AI 模型的数据没有足够的实例来表示模型试图学习的某些属性时,就会发生这种情况。例如,具有某种抗菌特性的分子将远远少于所有可能的分子,这使得抗菌特性的预测具有挑战性。该项目的目标是开发有理论保证的算法,使人工智能更有效地从不平衡的大数据中学习。该项目还将有助于培训未来的人工智能和机器学习专业人士,包括培训高中生和代表性不足的本科生。该项目研究了深度学习的一系列稳健损失。研究活动包括(i)开发可扩展的离线随机算法,用于解决不可分解的鲁棒损失,这些损失被制定为最小-最大、最小-最小公式; (ii) 开发高效的在线随机算法来解决一系列分布稳健的优化问题,这些问题被转化为组合优化问题; (iii) 通过解决所考虑的不可分解鲁棒损失来制定训练深度神经网络的有效策略; (iv) 建立基础理论,包括所提出算法的优化和统计收敛。这些算法正在根据图像、图表、文本等大的不平衡数据进行评估。该奖项反映了 NSF 的法定使命,并通过使用基金会的智力价值和更广泛的影响审查标准进行评估,被认为值得支持。

项目成果

期刊论文数量(13)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Differentially Private SGDA for Minimax Problems
  • DOI:
  • 发表时间:
    2022-01
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Zhenhuan Yang;Shu Hu;Yunwen Lei;Kush R. Varshney;Siwei Lyu;Yiming Ying
  • 通讯作者:
    Zhenhuan Yang;Shu Hu;Yunwen Lei;Kush R. Varshney;Siwei Lyu;Yiming Ying
Unmixing Biological Fluorescence Image Data with Sparse and Low-Rank Poisson Regression
  • DOI:
    10.1101/2023.01.06.523044
  • 发表时间:
    2023-01
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Ruogu Wang;A. Lemus;Colin M. Henneberry;Yiming Ying;Yunlong Feng;A. Valm
  • 通讯作者:
    Ruogu Wang;A. Lemus;Colin M. Henneberry;Yiming Ying;Yunlong Feng;A. Valm
AUC Maximization in the Era of Big Data and AI: A Survey
  • DOI:
    10.1145/3554729
  • 发表时间:
    2023-08-01
  • 期刊:
  • 影响因子:
    16.6
  • 作者:
    Yang,Tianbao;Ying,Yiming
  • 通讯作者:
    Ying,Yiming
Minimax AUC Fairness: Efficient Algorithm with Provable Convergence
Minimax AUC 公平性:具有可证明收敛性的高效算法
Label Distributionally Robust Losses for Multi-class Classification: Consistency, Robustness and Adaptivity
  • DOI:
  • 发表时间:
    2021-12
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Dixian Zhu;Yiming Ying;Tianbao Yang
  • 通讯作者:
    Dixian Zhu;Yiming Ying;Tianbao Yang
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Penghang Yin其他文献

Link Flow Correction For Inconsistent Traffic Flow Data Via ?1-Minimization
通过 ?1-最小化对不一致的流量数据进行链路流量校正
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Penghang Yin;Zhe Sun;W. Jin;J. Xin
  • 通讯作者:
    J. Xin
$\ell_1$-minimization method for link flow correction
$ell_1$-链路流量修正的最小化方法
  • DOI:
  • 发表时间:
    2017
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Penghang Yin;Zhe Sun;W. Jin;J. Xin
  • 通讯作者:
    J. Xin
On the complexity of convex inertial proximal algorithms
凸惯性近端算法的复杂度
  • DOI:
  • 发表时间:
    2018
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Tao Sun;Penghang Yin
  • 通讯作者:
    Penghang Yin
Non-convex Optimization Methods for Sparse and Low-rank Reconstruction
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Penghang Yin
  • 通讯作者:
    Penghang Yin
Training Ternary Neural Networks with Exact Proximal Operator
使用精确近端算子训练三元神经网络
  • DOI:
  • 发表时间:
    2016
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Penghang Yin;Shuai Zhang;J. Xin;Y. Qi
  • 通讯作者:
    Y. Qi

Penghang Yin的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Penghang Yin', 18)}}的其他基金

Algorithms and Theory for Compressing Deep Neural Networks
压缩深度神经网络的算法和理论
  • 批准号:
    2208126
  • 财政年份:
    2022
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant

相似国自然基金

跨膜蛋白LRP5胞外域调控膜受体TβRI促钛表面BMSCs归巢、分化的研究
  • 批准号:
    82301120
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
Dectin-2通过促进FcεRI聚集和肥大细胞活化加剧哮喘发作的机制研究
  • 批准号:
    82300022
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
藏药甘肃蚤缀β-咔啉生物碱类TβRI抑制剂的发现及其抗肺纤维化作用机制研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
TβRI的UFM化修饰调控TGF-β信号通路和乳腺癌转移的作用及机制研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
AKAP3通过其Dual和RI结构域整合多重信号通路调控精子活力和男性育性的机理研究
  • 批准号:
    82171602
  • 批准年份:
    2021
  • 资助金额:
    54 万元
  • 项目类别:
    面上项目

相似海外基金

Collaborative Research: RI: Medium: Principles for Optimization, Generalization, and Transferability via Deep Neural Collapse
合作研究:RI:中:通过深度神经崩溃实现优化、泛化和可迁移性的原理
  • 批准号:
    2312841
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: Principles for Optimization, Generalization, and Transferability via Deep Neural Collapse
合作研究:RI:中:通过深度神经崩溃实现优化、泛化和可迁移性的原理
  • 批准号:
    2312842
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Small: Foundations of Few-Round Active Learning
协作研究:RI:小型:少轮主动学习的基础
  • 批准号:
    2313131
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: Lie group representation learning for vision
协作研究:RI:中:视觉的李群表示学习
  • 批准号:
    2313151
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Continuing Grant
Collaborative Research: RI: Small: Motion Fields Understanding for Enhanced Long-Range Imaging
合作研究:RI:小型:增强远程成像的运动场理解
  • 批准号:
    2232298
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了