喵ID:oaeVBr免责声明

Is Multi-Task Learning an Upper Bound for Continual Learning?

多任务学习是持续学习的上限吗?

基本信息

DOI:
--
发表时间:
2022
期刊:
IEEE International Conference on Acoustics, Speech, and Signal Processing
影响因子:
--
通讯作者:
Soheil Kolouri
中科院分区:
文献类型:
--
作者: Zihao Wu;Huy Tran;H. Pirsiavash;Soheil Kolouri研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

Continual learning and multi-task learning are commonly used machine learning techniques for learning from multiple tasks. However, existing literature assumes multi-task learning as a reasonable performance upper bound for various continual learning algorithms, without rigorous justification. Additionally, in a multi-task setting, a small subset of tasks may behave as adversarial tasks, negatively impacting overall learning performance. On the other hand, continual learning approaches can avoid the negative impact of adversarial tasks and maintain performance on the remaining tasks, resulting in better performance than multi-task learning. This paper introduces a novel continual self-supervised learning approach, where each task involves learning an invariant representation for a specific class of data augmentations. We demonstrate that this approach results in naturally contradicting tasks and that, in this setting, continual learning often outperforms multi-task learning on benchmark datasets, including MNIST, CIFAR-10, and CIFAR-100.
持续学习和多任务学习是从多个任务中学习的常用机器学习技术。然而,现有文献在没有严格论证的情况下,将多任务学习假定为各种持续学习算法合理的性能上限。此外,在多任务设置中,一小部分任务可能表现为对抗性任务,对整体学习性能产生负面影响。另一方面,持续学习方法可以避免对抗性任务的负面影响,并在其余任务上保持性能,从而比多任务学习取得更好的性能。本文介绍了一种新颖的持续自监督学习方法,其中每个任务都涉及为特定类别的数据增强学习一种不变表示。我们证明了这种方法会导致自然相互矛盾的任务,并且在这种设置下,在包括MNIST、CIFAR - 10和CIFAR - 100在内的基准数据集上,持续学习往往优于多任务学习。
参考文献(1)
被引文献(3)
Linear Mode Connectivity in Multitask and Continual Learning
DOI:
发表时间:
2020-10
期刊:
ArXiv
影响因子:
0
作者:
Seyed Iman Mirzadeh;Mehrdad Farajtabar;Dilan Gorur;Razvan Pascanu;H. Ghasemzadeh
通讯作者:
Seyed Iman Mirzadeh;Mehrdad Farajtabar;Dilan Gorur;Razvan Pascanu;H. Ghasemzadeh

数据更新时间:{{ references.updateTime }}

Soheil Kolouri
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓