喵ID:bmkjtQ免责声明

Generalization Bounds for Noisy Iterative Algorithms Using Properties of Additive Noise Channels

基本信息

DOI:
--
发表时间:
2021-02
期刊:
J. Mach. Learn. Res.
影响因子:
--
通讯作者:
Hao Wang;Rui Gao;F. Calmon
中科院分区:
其他
文献类型:
--
作者: Hao Wang;Rui Gao;F. Calmon研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

Machine learning models trained by different optimization algorithms under different data distributions can exhibit distinct generalization behaviors. In this paper, we analyze the generalization of models trained by noisy iterative algorithms. We derive distribution-dependent generalization bounds by connecting noisy iterative algorithms to additive noise channels found in communication and information theory. Our generalization bounds shed light on several applications, including differentially private stochastic gradient descent (DP-SGD), federated learning, and stochastic gradient Langevin dynamics (SGLD). We demonstrate our bounds through numerical experiments, showing that they can help understand recent empirical observations of the generalization phenomena of neural networks.
在不同的数据分布下,由不同优化算法训练的机器学习模型可能表现出不同的泛化行为。在本文中,我们分析了由含噪迭代算法训练的模型的泛化情况。通过将含噪迭代算法与通信和信息论中的加性噪声信道相联系,我们推导出了与分布相关的泛化界。我们的泛化界对若干应用有所启示,包括差分隐私随机梯度下降(DP - SGD)、联邦学习以及随机梯度朗之万动力学(SGLD)。我们通过数值实验展示了这些界,表明它们有助于理解近期关于神经网络泛化现象的实证观察结果。
参考文献(82)
被引文献(11)

数据更新时间:{{ references.updateTime }}

Hao Wang;Rui Gao;F. Calmon
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓