Collaborative Research: RI: Small: Robust Deep Learning with Big Imbalanced Data

合作研究:RI:小型:具有大不平衡数据的鲁棒深度学习

基本信息

  • 批准号:
    2110546
  • 负责人:
  • 金额:
    $ 23.35万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Continuing Grant
  • 财政年份:
    2021
  • 资助国家:
    美国
  • 起止时间:
    2021-10-01 至 2024-09-30
  • 项目状态:
    已结题

项目摘要

This project promotes the progress of science and technology development by advancing artificial intelligence (AI) through innovations in scalable and robust computational methods. AI, especially deep learning, has brought transformative impact in industries and quantum leaps in the quality of a wide range of everyday technologies including face recognition, speech recognition and machine translation. However, in order to accelerate the democratization of AI there are still many challenges to be addressed including data issues and model issues. This project seeks to advance AI by addressing one critical issue related to data; i.e., data imbalance. This happens when the collected data for training AI models does not have enough instances representing some property the models are trying to learn. For example, molecules with a certain antibacterial property would be far fewer than all possible molecules making predictions of antibacterial properties challenging. The goal of this project is to develop algorithms with theoretical guarantees to make AI learn more effectively from the big imbalanced data. This project will also contribute to training future professionals in AI and machine learning, including training high school students and under-represented undergraduates. This project investigates a broad family of robust losses for deep learning. The research activities include (i) developing scalable offline stochastic algorithms for solving non-decomposable robust losses that are formulated into min-max, min-min formulations; (ii) developing efficient online stochastic algorithms for solving a family of distributionally robust optimization problems that are cast into compositional optimization problems; (iii) developing effective strategies for training deep neural networks by solving the considered non-decomposable robust losses; (iv) establishing the underlying theory including optimization and statistical convergence of the proposed algorithms. The algorithms are being evaluated on big imbalanced data such as images, graphs, texts.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
该项目通过可扩展和强大的计算方法的创新来推进人工智能(AI),从而促进科学技术的进步。人工智能,尤其是深度学习,给各行各业带来了变革性影响,并为人脸识别、语音识别和机器翻译等各种日常技术的质量带来了质的飞跃。然而,为了加速人工智能的民主化,仍然有许多挑战需要解决,包括数据问题和模型问题。该项目旨在通过解决与数据相关的一个关键问题来推进人工智能的发展;即数据不平衡。当收集的用于训练 AI 模型的数据没有足够的实例来表示模型试图学习的某些属性时,就会发生这种情况。例如,具有某种抗菌特性的分子将远远少于所有可能的分子,这使得抗菌特性的预测具有挑战性。该项目的目标是开发有理论保证的算法,使人工智能更有效地从不平衡的大数据中学习。该项目还将有助于培训未来的人工智能和机器学习专业人士,包括培训高中生和代表性不足的本科生。该项目研究了深度学习的一系列稳健损失。研究活动包括(i)开发可扩展的离线随机算法,用于解决不可分解的鲁棒损失,这些损失被制定为最小-最大、最小-最小公式; (ii) 开发高效的在线随机算法来解决一系列分布稳健的优化问题,这些问题被转化为组合优化问题; (iii) 通过解决所考虑的不可分解鲁棒损失来制定训练深度神经网络的有效策略; (iv) 建立基础理论,包括所提出算法的优化和统计收敛。这些算法正在根据图像、图表、文本等大的不平衡数据进行评估。该奖项反映了 NSF 的法定使命,并通过使用基金会的智力价值和更广泛的影响审查标准进行评估,被认为值得支持。

项目成果

期刊论文数量(13)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Label Distributionally Robust Losses for Multi-class Classification: Consistency, Robustness and Adaptivity
为多类分类标记分布稳健损失:一致性、稳健性和适应性
AUC maximization in the era of big data and AI: A survey
大数据和人工智能时代 AUC 最大化:一项调查
  • DOI:
  • 发表时间:
    2022-01
  • 期刊:
  • 影响因子:
    16.6
  • 作者:
    Yang, Tianbao;Ying, Yiming
  • 通讯作者:
    Ying, Yiming
Minimax auc fairness: Efficient algorithm with provable convergence
Minimax auc 公平性:具有可证明收敛性的高效算法
Stability and generalization for markov chain stochastic gradient methods
马尔可夫链随机梯度方法的稳定性和泛化
Generalization guarantee of SGD for pairwise learning
SGD 成对学习的泛化保证
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Penghang Yin其他文献

Transformed Schatten-1 Iterative Thresholding Algorithms for Matrix Rank Minimization and Applications
用于矩阵秩最小化的变换 Schatten-1 迭代阈值算法及应用
  • DOI:
  • 发表时间:
    2015-06-14
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Shuai Zhang;Penghang Yin;J. Xin
  • 通讯作者:
    J. Xin
Computing Sparse Representation in a Highly Coherent Dictionary Based on Difference of L1\documentclass[12pt]{minimal} \usepackage{amsmath} \usepackage{wasysym} \usepackage{amsfonts} \usepackage{amssymb} \usepackage{amsbsy} \usepackage{mathrsfs} \usepacka
基于 L1documentclass[12pt]{minimal} usepackage{amsmath} usepackage{wasysym} usepackage{amsfonts} usepackage{amssymb} usepackage{amsbsy} usepackage{mathrsfs 差异计算高度一致字典中的稀疏表示
  • DOI:
    10.1007/s10915-014-9930-1
  • 发表时间:
    2014-10-16
  • 期刊:
  • 影响因子:
    2.5
  • 作者:
    Y. Lou;Penghang Yin;Qi He;J. Xin
  • 通讯作者:
    J. Xin
SCRABBLE: single-cell RNA-seq imputation constrained by bulk RNA-seq data
SCABBLE:受批量 RNA-seq 数据约束的单细胞 RNA-seq 插补
  • DOI:
    10.1186/s13059-019-1681-8
  • 发表时间:
    2019-05-06
  • 期刊:
  • 影响因子:
    12.3
  • 作者:
    Tao Peng;Qin Zhu;Penghang Yin;Kai Tan
  • 通讯作者:
    Kai Tan
Recurrence of Optimum for Training Weight and Activation Quantized Networks
训练权重和激活量化网络的最优重现
  • DOI:
    10.1016/j.acha.2022.07.006
  • 发表时间:
    2020-12-10
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Ziang Long;Penghang Yin;J. Xin
  • 通讯作者:
    J. Xin
Link Flow Correction For Inconsistent Traffic Flow Data Via 𝓁1-Minimization
通过 ?1-最小化对不一致的流量数据进行链路流量校正
  • DOI:
  • 发表时间:
    2017-04-06
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Penghang Yin;Zhe Sun;W. Jin;J. Xin
  • 通讯作者:
    J. Xin

Penghang Yin的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Penghang Yin', 18)}}的其他基金

Algorithms and Theory for Compressing Deep Neural Networks
压缩深度神经网络的算法和理论
  • 批准号:
    2208126
  • 财政年份:
    2022
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant

相似国自然基金

跨膜蛋白LRP5胞外域调控膜受体TβRI促钛表面BMSCs归巢、分化的研究
  • 批准号:
    82301120
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
Dectin-2通过促进FcεRI聚集和肥大细胞活化加剧哮喘发作的机制研究
  • 批准号:
    82300022
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
藏药甘肃蚤缀β-咔啉生物碱类TβRI抑制剂的发现及其抗肺纤维化作用机制研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
TβRI的UFM化修饰调控TGF-β信号通路和乳腺癌转移的作用及机制研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
内核区对流活动与云微物理过程对登陆中国台风快速增强(RI)的研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    58 万元
  • 项目类别:

相似海外基金

Collaborative Research: RI: Small: Motion Fields Understanding for Enhanced Long-Range Imaging
合作研究:RI:小型:增强远程成像的运动场理解
  • 批准号:
    2232298
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: RUI: Automated Decision Making for Open Multiagent Systems
协作研究:RI:中:RUI:开放多智能体系统的自动决策
  • 批准号:
    2312657
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: Principles for Optimization, Generalization, and Transferability via Deep Neural Collapse
合作研究:RI:中:通过深度神经崩溃实现优化、泛化和可迁移性的原理
  • 批准号:
    2312840
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: Multilingual Long-form QA with Retrieval-Augmented Language Models
合作研究:RI:Medium:采用检索增强语言模型的多语言长格式 QA
  • 批准号:
    2312948
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
Collaborative Research: RI: Medium: Superhuman Imitation Learning from Heterogeneous Demonstrations
合作研究:RI:媒介:异质演示中的超人模仿学习
  • 批准号:
    2312956
  • 财政年份:
    2023
  • 资助金额:
    $ 23.35万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了