喵ID:9cdv5Y免责声明

The complexity of non-stationary reinforcement learning

非平稳强化学习的复杂性

基本信息

DOI:
--
发表时间:
2023
期刊:
International Conference on Algorithmic Learning Theory
影响因子:
--
通讯作者:
Binghui Peng
中科院分区:
文献类型:
--
作者: Christos Papadimitriou;Binghui Peng研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

The problem of continual learning in the domain of reinforcement learning, often called non-stationary reinforcement learning, has been identified as an important challenge to the application of reinforcement learning. We prove a worst-case complexity result, which we believe captures this challenge: Modifying the probabilities or the reward of a single state-action pair in a reinforcement learning problem requires an amount of time almost as large as the number of states in order to keep the value function up to date, unless the strong exponential time hypothesis (SETH) is false; SETH is a widely accepted strengthening of the P $ eq$ NP conjecture. Recall that the number of states in current applications of reinforcement learning is typically astronomical. In contrast, we show that just $ extit{adding}$ a new state-action pair is considerably easier to implement.
在加强学习领域的持续学习问题(通常称为非平稳的强化学习)被确定为对强化学习的应用的重要挑战。我们证明了最糟糕的复杂性结果,我们认为这会捕捉到这一挑战:在加强学习问题中修改单个州行动对的概率或奖励,几乎需要一定时间,几乎与状态数量一样大,以便除非强大的指数时间假设(SETH)是错误的,否则请保持最新价值函数。塞思(Seth)是P $的广泛接受的加强 等式$ NP猜想。回想一下,当前强化学习应用中的状态数量通常是天文学的。相比之下,我们表明只有$ extit {添加} $一个新的州行动对就更容易实现。
参考文献(4)
被引文献(0)
Breaking the Sample Size Barrier in Model-Based Reinforcement Learning with a Generative Model
DOI:
10.1287/opre.2023.2451
发表时间:
2020-05
期刊:
Oper. Res.
影响因子:
0
作者:
Gen Li;Yuting Wei;Yuejie Chi;Yuantao Gu;Yuxin Chen
通讯作者:
Gen Li;Yuting Wei;Yuejie Chi;Yuantao Gu;Yuxin Chen
Memory Bounds for Continual Learning
DOI:
10.1109/focs54457.2022.00056
发表时间:
2022-04
期刊:
2022 IEEE 63rd Annual Symposium on Foundations of Computer Science (FOCS)
影响因子:
0
作者:
Xi Chen;Christos Papadimitriou;Binghui Peng
通讯作者:
Xi Chen;Christos Papadimitriou;Binghui Peng

数据更新时间:{{ references.updateTime }}

Binghui Peng
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓