Gone but Not Forgotten: Improved Benchmarks for Machine Unlearning

要約

機械学習モデルは、モデルのトレーニング データに関する情報を漏洩する攻撃など、敵対的な攻撃に対して脆弱です。
最近、特にデータ削除要求があった場合に、プライバシー上の懸念にどのように対処するのが最善であるかについての関心が高まっています。
機械学習解除アルゴリズムは、パフォーマンスを維持しながら、コストのかかるモデルを最初から再トレーニングすることなく、トレーニングされたモデルを効率的に更新してデータ削除要求に準拠することを目的としています。
機械の非学習に関する文献にあるいくつかのアルゴリズムは、ある程度のプライバシーの向上を実証していますが、多くの場合、それらは基本的なメンバーシップ推論攻撃についてのみ評価されており、現実的な脅威を表していません。
この論文では、非学習アルゴリズムの現在の評価における 3 つの主要な欠点に対する代替の評価方法を説明し、提案します。
私たちは、さまざまなコンピューター ビジョン データセットに対する最先端のアンラーニング アルゴリズムの一連の実験を通じて代替評価の有用性を示し、現場の状況をより詳細に示します。

要約(オリジナル)

Machine learning models are vulnerable to adversarial attacks, including attacks that leak information about the model’s training data. There has recently been an increase in interest about how to best address privacy concerns, especially in the presence of data-removal requests. Machine unlearning algorithms aim to efficiently update trained models to comply with data deletion requests while maintaining performance and without having to resort to retraining the model from scratch, a costly endeavor. Several algorithms in the machine unlearning literature demonstrate some level of privacy gains, but they are often evaluated only on rudimentary membership inference attacks, which do not represent realistic threats. In this paper we describe and propose alternative evaluation methods for three key shortcomings in the current evaluation of unlearning algorithms. We show the utility of our alternative evaluations via a series of experiments of state-of-the-art unlearning algorithms on different computer vision datasets, presenting a more detailed picture of the state of the field.

arxiv情報

著者 Keltin Grimes,Collin Abidi,Cole Frank,Shannon Gallagher
発行日 2024-05-29 15:53:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク