Collaborative Research: Langevin Markov Chain Monte Carlo Methods for Machine Learning

合作研究:用于机器学习的朗之万马尔可夫链蒙特卡罗方法

基本信息

  • 批准号:
    2053485
  • 负责人:
  • 金额:
    $ 18万
  • 依托单位:
  • 依托单位国家:
    美国
  • 项目类别:
    Standard Grant
  • 财政年份:
    2021
  • 资助国家:
    美国
  • 起止时间:
    2021-06-01 至 2024-08-31
  • 项目状态:
    已结题

项目摘要

The research in this project will focus on a particular class of algorithms for machine learning and data science. In particular, the investigators consider the large class of Markov Chain Monte Carlo (MCMC) methods which arise in several contexts in machine learning and data science. The project will develop new algorithms within the subclass called Langevin MCMC methods. These new algorithms will be scalable to high dimensions and large datasets and will be faster than traditional ones. The features of scalability and fast convergence are important for use in Bayesian statistical inference as well as in non-convex stochastic optimization methods for machine learning. The algorithms will allow efficient training and calibration of predictive machine learning models from large-scale data and have a direct impact on a broad range of data-driven application areas from information technology to computer vision. Graduate students will be trained and involved in research. In this project, the PIs investigate a new class of algorithms within the class of Langevin MCMC methods. These algorithms can be applied in three contexts of machine learning and data science. First, they can be used for Bayesian (learning) inference problems with high-dimensional models, where the objective is to sample from a posterior distribution given a prior distribution on the parameter space and the likelihood of the observed data. Second, they can be used for solving stochastic non-convex optimization problems including the challenging problems arising in deep learning. Third, they arise in modeling and approximating workhorse algorithms in data science such as stochastic gradient descent methods. By leveraging out the connections between stochastic gradient algorithms and MCMC algorithms, the proposed approach results in a new class of stochastic gradient algorithms called Hamiltonian Accelerated Stochastic Gradient that can outperform existing methods in deep learning practice. A first goal of the project is to study theoretical convergence properties of the proposed algorithms further to fill out the current gap between theory and practice, as well as to develop new scalable algorithms that can extend the existing framework. A second goal is to investigate existing Langevin algorithms further to provide non-asymptotic rigorous performance guarantees relevant to machine learning and data science practice.This award reflects NSF's statutory mission and has been deemed worthy of support through evaluation using the Foundation's intellectual merit and broader impacts review criteria.
该项目的研究将重点关注机器学习和数据科学的一类特定算法。研究人员特别考虑了机器学习和数据科学中多种背景下出现的一大类马尔可夫链蒙特卡罗(MCMC)方法。该项目将在名为 Langevin MCMC 方法的子类中开发新算法。这些新算法将可扩展到高维度和大型数据集,并且比传统算法更快。可扩展性和快速收敛的特性对于贝叶斯统计推断以及机器学习的非凸随机优化方法非常重要。这些算法将允许根据大规模数据对预测机器学习模型进行高效训练和校准,并对从信息技术到计算机视觉的广泛数据驱动应用领域产生直接影响。 研究生将接受培训并参与研究。在这个项目中,PI 研究了 Langevin MCMC 方法类中的一类新算法。 这些算法可以应用于机器学习和数据科学的三种环境中。首先,它们可用于高维模型的贝叶斯(学习)推理问题,其目标是在给定参数空间上的先验分布和观察数据的可能性的情况下从后验分布中进行采样。其次,它们可用于解决随机非凸优化问题,包括深度学习中出现的挑战性问题。第三,它们出现在数据科学中的建模和近似主力算法中,例如随机梯度下降方法。通过利用随机梯度算法和 MCMC 算法之间的联系,所提出的方法产生了一类新的随机梯度算法,称为哈密顿加速随机梯度,它可以在深度学习实践中优于现有方法。该项目的第一个目标是进一步研究所提出算法的理论收敛特性,以填补当前理论与实践之间的差距,并开发可以扩展现有框架的新的可扩展算法。第二个目标是进一步研究现有的 Langevin 算法,以提供与机器学习和数据科学实践相关的非渐近严格性能保证。该奖项反映了 NSF 的法定使命,并通过使用基金会的智力价值和更广泛的影响进行评估,被认为值得支持审查标准。

项目成果

期刊论文数量(17)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
A Stochastic Subgradient Method for Distributionally Robust Non-convex and Non-smooth Learning
分布式鲁棒非凸非平滑学习的随机次梯度方法
L-DQN: An Asynchronous Limited-Memory Distributed Quasi-Newton Method
L-DQN:一种异步有限内存分布式拟牛顿方法
Global Convergence of Stochastic Gradient Hamiltonian Monte Carlo for Nonconvex Stochastic Optimization: Nonasymptotic Performance Bounds and Momentum-Based Acceleration
非凸随机优化的随机梯度哈密顿蒙特卡罗全局收敛:非渐近性能界限和基于动量的加速
  • DOI:
    10.1287/opre.2021.2162
  • 发表时间:
    2021-01
  • 期刊:
  • 影响因子:
    2.7
  • 作者:
    Gao, Xuefeng;Gürbüzbalaban, Mert;Zhu, Lingjiong
  • 通讯作者:
    Zhu, Lingjiong
Asymmetric Heavy Tails and Implicit Bias in Gaussian Noise Injections
高斯噪声注入中的不对称重尾和隐式偏差
  • DOI:
  • 发表时间:
    2021-02-13
  • 期刊:
  • 影响因子:
    0
  • 作者:
    A. Camuto;Xiaoyu Wang;Lingjiong Zhu;Chris C. Holmes;M. Gürbüzbalaban;Umut Simsekli
  • 通讯作者:
    Umut Simsekli
Robust Distributed Accelerated Stochastic Gradient Methods for Multi-Agent Networks
多智能体网络的鲁棒分布式加速随机梯度法
  • DOI:
  • 发表时间:
    2022-01
  • 期刊:
  • 影响因子:
    6
  • 作者:
    Fallah, Alireza;Gurbuzbalaban, Mert;Ozdaglar, Asuman;Simsekli, Umut;Zhu Lingjiong
  • 通讯作者:
    Zhu Lingjiong
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Mert Gurbuzbalaban其他文献

Decentralized Computation of Effective Resistances and Acceleration of Distributed Optimization Algorithms.
有效阻力的分散计算和分布式优化算法的加速。
  • DOI:
  • 发表时间:
    2019-07-29
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Bugra Can;Saeed Soori;N. Aybat;Maryam Mehri Dehvani;Mert Gurbuzbalaban
  • 通讯作者:
    Mert Gurbuzbalaban
Heavy-Tail Phenomenon in Decentralized SGD
去中心化 SGD 中的重尾现象
  • DOI:
    10.48550/arxiv.2205.06689
  • 发表时间:
    2022-05-13
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Mert Gurbuzbalaban;Yuanhan Hu;Umut Simsekli;K. Yuan;Lingjiong Zhu
  • 通讯作者:
    Lingjiong Zhu
DAve-QN: A Distributed Averaged Quasi-Newton Method with Local Superlinear Convergence Rate
DAve-QN:具有局部超线性收敛率的分布式平均拟牛顿法
  • DOI:
  • 发表时间:
    2019-06-03
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Saeed Soori;Konstantin Mischenko;Aryan Mokhtari;M. Dehnavi;Mert Gurbuzbalaban
  • 通讯作者:
    Mert Gurbuzbalaban
Fractional moment-preserving initialization schemes for training deep neural networks
用于训练深度神经网络的分数矩保持初始化方案
Fractal Structure and Generalization Properties of Stochastic Optimization Algorithms
随机优化算法的分形结构和泛化性质
  • DOI:
    10.1007/s11771-016-3396-2
  • 发表时间:
    2021-06-09
  • 期刊:
  • 影响因子:
    4.4
  • 作者:
    A. Camuto;George Deligiannidis;Murat A. Erdogdu;Mert Gurbuzbalaban;Umut cSimcsekli;Lingjiong Zhu
  • 通讯作者:
    Lingjiong Zhu

Mert Gurbuzbalaban的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Mert Gurbuzbalaban', 18)}}的其他基金

SHF: Small: Communication-Efficient Distributed Algorithms for Machine Learning
SHF:小型:用于机器学习的通信高效分布式算法
  • 批准号:
    1814888
  • 财政年份:
    2018
  • 资助金额:
    $ 18万
  • 项目类别:
    Standard Grant
Beyond With-replacement Sampling for Large-Scale Data Analysis and Optimization
超越大规模数据分析和优化的替换采样
  • 批准号:
    1723085
  • 财政年份:
    2017
  • 资助金额:
    $ 18万
  • 项目类别:
    Continuing Grant

相似国自然基金

模糊朗之万方程刻画的半导体磁输运机制研究
  • 批准号:
    12361093
  • 批准年份:
    2023
  • 资助金额:
    27 万元
  • 项目类别:
    地区科学基金项目
多稳态广义朗之万模型的噪声诱导共振及应用研究
  • 批准号:
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
基于朗之万模型的动态复杂介质中反常动力学研究
  • 批准号:
    12205154
  • 批准年份:
    2022
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
非静态环境中随机扩散系数模型的朗之万动力学研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目
基于四维朗之万模型的核裂变动力学研究
  • 批准号:
  • 批准年份:
    2021
  • 资助金额:
    30 万元
  • 项目类别:
    青年科学基金项目

相似海外基金

Collaborative Research: Langevin Markov Chain Monte Carlo Methods for Machine Learning
合作研究:用于机器学习的朗之万马尔可夫链蒙特卡罗方法
  • 批准号:
    2053454
  • 财政年份:
    2021
  • 资助金额:
    $ 18万
  • 项目类别:
    Standard Grant
Research on the Basic Properties of Chaotic Loewner Evolution and Its Application to Neuronal Morphology
混沌Loewner进化的基本性质及其在神经形态学中的应用研究
  • 批准号:
    20J20867
  • 财政年份:
    2020
  • 资助金额:
    $ 18万
  • 项目类别:
    Grant-in-Aid for JSPS Fellows
Collaborative Research: A Langevin Subgrid Scale Closure and Discontinuous Galerkin Exascale Large Eddy Simulation of Complex Turbulent Flows
合作研究:复杂湍流的 Langevin 亚网格尺度闭合和不连续 Galerkin 百亿亿次大涡模拟
  • 批准号:
    1603589
  • 财政年份:
    2016
  • 资助金额:
    $ 18万
  • 项目类别:
    Standard Grant
Collaborative Research: A Langevin Subgrid Scale Closure and Discontinuous Galerkin Exascale Large Eddy Simulation of Complex Turbulent Flows
合作研究:复杂湍流的 Langevin 亚网格尺度闭合和不连续 Galerkin 百亿亿次大涡模拟
  • 批准号:
    1604142
  • 财政年份:
    2016
  • 资助金额:
    $ 18万
  • 项目类别:
    Standard Grant
Collaborative Research: A Langevin Subgrid Scale Closure and Discontinuous Galerkin Exascale Large Eddy Simulation of Complex Turbulent Flows
合作研究:复杂湍流的 Langevin 亚网格尺度闭合和不连续 Galerkin 百亿亿次大涡模拟
  • 批准号:
    1603131
  • 财政年份:
    2016
  • 资助金额:
    $ 18万
  • 项目类别:
    Standard Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了