喵ID:hBTmS3免责声明

Try before You Buy: Privacy-preserving Data Evaluation on Cloud-based Machine Learning Data Marketplace

先试后买:基于云的机器学习数据市场上的隐私保护数据评估

基本信息

DOI:
--
发表时间:
2021
期刊:
Asia-Pacific Computer Systems Architecture Conference
影响因子:
--
通讯作者:
Ke Xu
中科院分区:
文献类型:
--
作者: Qiyang Song;Jiahao Cao;Kun Sun;Qi Li;Ke Xu研究方向: -- MeSH主题词: --
关键词: --
来源链接:pubmed详情页地址

文献摘要

A cloud-based data marketplace provides a service to match data shoppers with appropriate data sellers, so that data shoppers can augment their internal data sets with external data to improve their machine learning (ML) models. Since data may contain diverse values, it is critical for a shopper to evaluate the most valuable data before making the final trade. However, evaluating ML data typically requires the cloud to access a shopper’s ML model and sellers’ data, which are both sensitive. None of the existing cloud-based data marketplaces enable ML data evaluation while preserving both model privacy and data privacy. In this paper, we develop a privacy-preserving ML data evaluation framework on a cloud-based data marketplace to protect shoppers’ ML models and sellers’ data. First, we provide a privacy-preserving framework that allows shoppers and sellers to encrypt their models and data, respectively, while preserving data functionality and model functionality in the cloud. We then develop a privacy-preserving data selection protocol that enables the cloud to help shoppers select the most valuable ML data. Also, we develop a privacy-preserving data validation protocol that allows shoppers to further check the quality of the selected data. Compared to random data selection, the experimental results show that our solution can reduce 60% prediction errors.
基于云的数据市场提供一种服务,将数据购买者与合适的数据卖家进行匹配,以便数据购买者能够用外部数据扩充其内部数据集,从而改进他们的机器学习(ML)模型。由于数据可能包含不同的值,对于购买者来说,在最终交易之前评估最有价值的数据至关重要。然而,评估ML数据通常需要云访问购买者的ML模型和卖家的数据,而这两者都是敏感的。现有的基于云的数据市场都无法在保护模型隐私和数据隐私的同时进行ML数据评估。在本文中,我们在基于云的数据市场上开发了一个保护隐私的ML数据评估框架,以保护购买者的ML模型和卖家的数据。首先,我们提供一个保护隐私的框架,允许购买者和卖家分别对他们的模型和数据进行加密,同时在云中保留数据功能和模型功能。然后,我们开发了一个保护隐私的数据选择协议,使云能够帮助购买者选择最有价值的ML数据。此外,我们还开发了一个保护隐私的数据验证协议,允许购买者进一步检查所选数据的质量。与随机数据选择相比,实验结果表明我们的解决方案可以减少60%的预测误差。
参考文献(1)
被引文献(11)
Just How Toxic is Data Poisoning? A Unified Benchmark for Backdoor and Data Poisoning Attacks
DOI:
发表时间:
2020-06
期刊:
ArXiv
影响因子:
0
作者:
Avi Schwarzschild;Micah Goldblum;Arjun Gupta;John P. Dickerson;T. Goldstein
通讯作者:
Avi Schwarzschild;Micah Goldblum;Arjun Gupta;John P. Dickerson;T. Goldstein

数据更新时间:{{ references.updateTime }}

Ke Xu
通讯地址:
--
所属机构:
--
电子邮件地址:
--
免责声明免责声明
1、猫眼课题宝专注于为科研工作者提供省时、高效的文献资源检索和预览服务;
2、网站中的文献信息均来自公开、合规、透明的互联网文献查询网站,可以通过页面中的“来源链接”跳转数据网站。
3、在猫眼课题宝点击“求助全文”按钮,发布文献应助需求时求助者需要支付50喵币作为应助成功后的答谢给应助者,发送到用助者账户中。若文献求助失败支付的50喵币将退还至求助者账户中。所支付的喵币仅作为答谢,而不是作为文献的“购买”费用,平台也不从中收取任何费用,
4、特别提醒用户通过求助获得的文献原文仅用户个人学习使用,不得用于商业用途,否则一切风险由用户本人承担;
5、本平台尊重知识产权,如果权利所有者认为平台内容侵犯了其合法权益,可以通过本平台提供的版权投诉渠道提出投诉。一经核实,我们将立即采取措施删除/下架/断链等措施。
我已知晓