喵ID:Z4YYl6免责声明

Sample based Explanations via Generalized Representers

通过广义代表进行基于样本的解释

基本信息

DOI:
10.48550/arxiv.2310.18526
发表时间:
2023
期刊:
ArXiv
影响因子:
--
通讯作者:
Pradeep Ravikumar
中科院分区:
文献类型:
--
作者: Che;Chih;Pradeep Ravikumar研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

We propose a general class of sample based explanations of machine learning models, which we term generalized representers. To measure the effect of a training sample on a model's test prediction, generalized representers use two components: a global sample importance that quantifies the importance of the training point to the model and is invariant to test samples, and a local sample importance that measures similarity between the training sample and the test point with a kernel. A key contribution of the paper is to show that generalized representers are the only class of sample based explanations satisfying a natural set of axiomatic properties. We discuss approaches to extract global importances given a kernel, and also natural choices of kernels given modern non-linear models. As we show, many popular existing sample based explanations could be cast as generalized representers with particular choices of kernels and approaches to extract global importances. Additionally, we conduct empirical comparisons of different generalized representers on two image and two text classification datasets.
我们提出了一类基于样本的机器学习模型解释的通用方法,我们称之为广义表示器。为了衡量一个训练样本对模型测试预测的影响,广义表示器使用两个组件:全局样本重要性,它量化训练点对模型的重要性,并且对测试样本是不变的;以及局部样本重要性,它使用核函数来衡量训练样本和测试点之间的相似性。本文的一个关键贡献是表明广义表示器是唯一满足一组自然公理性质的基于样本的解释类别。我们讨论了在给定核函数的情况下提取全局重要性的方法,以及在给定现代非线性模型的情况下核函数的自然选择。正如我们所展示的,许多现有的流行的基于样本的解释都可以被视为具有特定核函数选择和提取全局重要性方法的广义表示器。此外,我们在两个图像和两个文本分类数据集上对不同的广义表示器进行了实证比较。
参考文献(8)
被引文献(5)
Datamodels: Predicting Predictions from Training Data
DOI:
发表时间:
2022-02
期刊:
ArXiv
影响因子:
0
作者:
Andrew Ilyas;Sung Min Park;Logan Engstrom;Guillaume Leclerc;A. Madry
通讯作者:
Andrew Ilyas;Sung Min Park;Logan Engstrom;Guillaume Leclerc;A. Madry
Influence Functions in Deep Learning Are Fragile
DOI:
发表时间:
2020-06
期刊:
ArXiv
影响因子:
0
作者:
S. Basu;Phillip E. Pope;S. Feizi
通讯作者:
S. Basu;Phillip E. Pope;S. Feizi
Definitions, methods, and applications in interpretable machine learning
DOI:
10.1073/pnas.1900654116
发表时间:
2019-10-29
期刊:
PROCEEDINGS OF THE NATIONAL ACADEMY OF SCIENCES OF THE UNITED STATES OF AMERICA
影响因子:
11.1
作者:
Murdoch, W. James;Singh, Chandan;Yu, Bin
通讯作者:
Yu, Bin
A Kernel-Based View of Language Model Fine-Tuning
DOI:
10.48550/arxiv.2210.05643
发表时间:
2022-10
期刊:
影响因子:
0
作者:
Sadhika Malladi;Alexander Wettig;Dingli Yu;Danqi Chen;Sanjeev Arora
通讯作者:
Sadhika Malladi;Alexander Wettig;Dingli Yu;Danqi Chen;Sanjeev Arora
The Unreasonable Effectiveness of Deep Features as a Perceptual Metric
DOI:
10.1109/cvpr.2018.00068
发表时间:
2018-01-01
期刊:
2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)
影响因子:
0
作者:
Zhang, Richard;Isola, Phillip;Wang, Oliver
通讯作者:
Wang, Oliver

数据更新时间:{{ references.updateTime }}

Pradeep Ravikumar
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓