RI: Small: Taming Massive Pre-trained Models under Label Scarcity via an Optimization Lens

RI:小型:通过优化镜头在标签稀缺的情况下驯服大量预训练模型

基本信息

  • 批准号:
    2226152
  • 负责人:
  • 金额:
    $ 53.99万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2022
  • 资助国家:
    美国
  • 起止时间:
    2022-09-01 至 2025-08-31
  • 项目状态:
    未结题

项目摘要

Deep transfer learning (DTL) has made significant progress in many real-world applications such as image and speech recognition. Training deep learning models in these applications often requires large amounts of labeled data, (e.g., images with annotated objects). Labelling these data by human labor, however, can be very expensive and time-consuming, which significantly limits the broader adoption of deep learning. Such an issue is more pronounced in certain domains (e.g. biomedical domain), where labeled data are scarce. To address the concern of label scarcity, researchers have resorted to deep transfer learning, where a massive deep learning model is first pre-trained only using unlabeled data and then adapted to the downstream task of our interests with only limited labelled data. Due to the gap between the enormous sizes of the pre-trained models and the limited labeled data, however, such a deep transfer learning approach is prone to overfitting and fail to generalize well on the unseen data, especially when there are noisy labels. Moreover, the enormous model sizes make practical deployment very difficult when there are constraints on storage/memory usage, inference latency and energy consumption, especially on edge devices. This project aims to develop an efficient computational framework to improve the generalization of deep transfer learning and reduce the model sizes by leveraging cutting-edge optimization and machine learning techniques.Specifically, this project aims to develop: (I) new adversarial regularization methods, which can regularize the complexity of deep learning models and prevent overfitting of the training data, (II) new self-training methods robust to noisy labels in the training data, and (III) new optimization methods, which can improve the training of compact deep learning models in deep transfer learning. Moreover, we will develop new generalization and approximation theories for understanding the benefits of our proposed methods in transfer learning. The proposed research will also deliver open-source software in the form of easy-to-use libraries, which facilitate researchers and practitioners to apply DTL in related fields.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
深度迁移学习(DTL)在图像和语音识别等许多实际应用中取得了重大进展。在这些应用程序中训练深度学习模型通常需要大量标记数据(例如带有注释对象的图像)。然而,通过人工标记这些数据可能非常昂贵且耗时,这极大地限制了深度学习的更广泛采用。这样的问题在标记数据稀缺的某些领域(例如生物医学领域)更为明显。为了解决标签稀缺的问题,研究人员求助于深度迁移学习,其中首先仅使用未标记数据对大规模深度学习模型进行预训练,然后仅使用有限的标记数据适应我们感兴趣的下游任务。然而,由于预训练模型的巨大规模和有限的标记数据之间的差距,这种深度迁移学习方法很容易过度拟合,并且无法很好地概括未见过的数据,特别是当存在噪声标签时。此外,当存储/内存使用、推理延迟和能耗受到限制时,巨大的模型尺寸使得实际部署变得非常困难,尤其是在边缘设备上。该项目旨在开发一种高效的计算框架,通过利用尖端优化和机器学习技术来提高深度迁移学习的泛化性并减小模型大小。具体而言,该项目旨在开发:(I)新的对抗性正则化方法,该方法可以规范深度学习模型的复杂性并防止训练数据的过度拟合,(II)对训练数据中的噪声标签具有鲁棒性的新自训练方法,以及(III)新的优化方法,可以改善紧凑型深度学习的训练深度迁移学习中的模型。此外,我们将开发新的泛化和近似理论,以理解我们提出的迁移学习方法的好处。拟议的研究还将以易于使用的库的形式提供开源软件,以方便研究人员和从业者在相关领域应用 DTL。该奖项反映了 NSF 的法定使命,并通过使用基金会的智力价值和更广泛的影响审查标准。

项目成果

期刊论文数量(4)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
LoSparse: Structured Compression of Large Language Models based on Low-Rank and Sparse Approximation
LoSparse:基于低秩和稀疏近似的大型语言模型的结构化压缩
  • DOI:
    10.48550/arxiv.2306.11222
  • 发表时间:
    2023-06-20
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Yixiao Li;Yifan Yu;Qingru Zhang;Chen Liang;Pengcheng He;Weizhu Chen;Tuo Zhao
  • 通讯作者:
    Tuo Zhao
Machine Learning Force Fields with Data Cost Aware Training
具有数据成本意识培训的机器学习力场
Adaptive Budget Allocation for Parameter-Efficient Fine-Tuning
用于参数高效微调的自适应预算分配
  • DOI:
    10.48550/arxiv.2303.10512
  • 发表时间:
    2024-09-13
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Qingru Zhang;Minshuo Chen;Ale;er Bukharin;er;Pengcheng He;Yu Cheng;Weizhu Chen;Tuo Zhao
  • 通讯作者:
    Tuo Zhao
Robust Multi-Agent Reinforcement Learning via Adversarial Regularization: Theoretical Foundation and Stable Algorithms
通过对抗正则化实现鲁棒多智能体强化学习:理论基础和稳定算法
  • DOI:
    10.48550/arxiv.2310.10810
  • 发表时间:
    2023-10-16
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Ale;er W. Bukharin;er;Yan Li;Yue Yu;Qingru Zhang;Zhehui Chen;Simiao Zuo;Chao Zhang;Songan Zhang;Tuo Zhao
  • 通讯作者:
    Tuo Zhao
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Tuo Zhao其他文献

The influences of four dimensions of perceived fit on individuals’ utilisation of SPOCs: an extension of the task-technology fit model
感知适配的四个维度对个人 SPOC 使用的影响:任务技术适配模型的扩展
  • DOI:
    10.1080/0144929x.2024.2332449
  • 发表时间:
    2024-03-25
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Lin Zhang;Zhen Shao;Tuo Zhao;Kuanchin (KC) Chen
  • 通讯作者:
    Kuanchin (KC) Chen
QUEACO: Borrowing Treasures from Weakly-labeled Behavior Data for Query Attribute Value Extraction
QUEACO:借用弱标签行为数据的宝藏进行查询属性值提取
Framework and operation of digital twin smart freeway
数字孪生智慧高速公路框架及运营
  • DOI:
    10.1049/itr2.12288
  • 发表时间:
    2022-10-12
  • 期刊:
  • 影响因子:
    2.7
  • 作者:
    Hui Fu;Tuo Zhao;Yanghang Chen;Yipeng Yao;Jiewu Leng
  • 通讯作者:
    Jiewu Leng
Effect of activation process on microstructure and electrochemical properties of N-doped carbon cathode in Li-O2 batteries.
活化过程对Li-O2电池中氮掺杂碳正极微观结构和电化学性能的影响。
  • DOI:
    10.1021/acsami.9b12691
  • 发表时间:
    2019-08-30
  • 期刊:
  • 影响因子:
    9.5
  • 作者:
    Suhe Li;Meiling Wang;Ying Yao;Tuo Zhao;Lei Yang;Feng Wu
  • 通讯作者:
    Feng Wu
UNet++-Based Multi-Channel Speech Dereverberation and Distant Speech Recognition
基于UNet的多通道语音去混响和远距离语音识别

Tuo Zhao的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Tuo Zhao', 18)}}的其他基金

III: Small: Go Beyond Short-term Dependency and Homogeneity: A General-Purpose Transformer Recipe for Multi-Domain Heterogeneous Sequential Data Analysis
III:小:超越短期依赖性和同质性:用于多域异构顺序数据分析的通用 Transformer 配方
  • 批准号:
    2008334
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Continuing Grant
III: Small: Topics in Temporal Marked Point Processes: Granger Causality, Imperfect Observations and Intervention
III:小:时间标记点过程的主题:格兰杰因果关系、不完美观察和干预
  • 批准号:
    1717916
  • 财政年份:
    2017
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant

相似国自然基金

ALKBH5介导的SOCS3-m6A去甲基化修饰在颅脑损伤后小胶质细胞炎性激活中的调控作用及机制研究
  • 批准号:
    82301557
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
miRNA前体小肽miPEP在葡萄低温胁迫抗性中的功能研究
  • 批准号:
  • 批准年份:
    2023
  • 资助金额:
    50 万元
  • 项目类别:
PKM2苏木化修饰调节非小细胞肺癌起始细胞介导的耐药生态位的机制研究
  • 批准号:
    82372852
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目
基于翻译组学理论探究LncRNA H19编码多肽PELRM促进小胶质细胞活化介导电针巨刺改善膝关节术后疼痛的机制研究
  • 批准号:
    82305399
  • 批准年份:
    2023
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
CLDN6高表达肿瘤细胞亚群在非小细胞肺癌ICB治疗抗性形成中的作用及机制研究
  • 批准号:
    82373364
  • 批准年份:
    2023
  • 资助金额:
    49 万元
  • 项目类别:
    面上项目

相似海外基金

SHF: Small: Taming Huge Page Problems for Memory Bulk Operations Using a Hardware/Software Co-Design Approach
SHF:小:使用硬件/软件协同设计方法解决内存批量操作的大页面问题
  • 批准号:
    2400014
  • 财政年份:
    2024
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SaTC: CORE: Small: Understanding and Taming Deterministic Model Bit Flip attacks in Deep Neural Networks
协作研究:SaTC:核心:小型:理解和驯服深度神经网络中的确定性模型位翻转攻击
  • 批准号:
    2342618
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: III: Small: Taming Large-Scale Streaming Graphs in an Open World
协作研究:III:小型:在开放世界中驯服大规模流图
  • 批准号:
    2236579
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: III: Small: Taming Large-Scale Streaming Graphs in an Open World
协作研究:III:小型:在开放世界中驯服大规模流图
  • 批准号:
    2236578
  • 财政年份:
    2023
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
Collaborative Research: SaTC: CORE: Small: Understanding and Taming Deterministic Model Bit Flip attacks in Deep Neural Networks
协作研究:SaTC:核心:小型:理解和驯服深度神经网络中的确定性模型位翻转攻击
  • 批准号:
    2019536
  • 财政年份:
    2020
  • 资助金额:
    $ 53.99万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了