SAFE: Machine Unlearning With Shard Graphs

要約

我々は、トレーニングされたモデルからトレーニング サンプルの影響を取り除くために予想されるコストを最小限に抑えながら、さまざまなデータのコレクションに大規模なモデルを適応させる方法である Synergy Aware Forgetting Ensemble (SAFE) を紹介します。
このプロセスは、選択的忘却または学習解除とも呼ばれ、多くの場合、データセットをシャードに分割し、それぞれで完全に独立したモデルをトレーニングし、結果のモデルをアンサンブルすることによって実行されます。
シャードの数を増やすと、予想される忘れられるコストが減りますが、同時に、独立したモデルのトレーニング中にサンプル間の相乗的な情報が失われるため、推論コストが増加し、モデルの最終的な精度が低下します。
SAFE では、各シャードを独立したものとして扱うのではなく、シャード グラフの概念を導入しています。これにより、トレーニング中に他のシャードからの限られた情報を組み込むことができ、予想される忘却コストのわずかな増加と精度の大幅な向上をトレードオフしながら、完全な削除を実現できます。
忘れた後に残る影響。
SAFE は、ほとんどの計算を再利用しながらトレーニングできる軽量のアダプター システムを使用します。
これにより、細粒度のコンピューター ビジョン データセットで経験的に実証されているように、高い精度を維持しながら、現在の最先端の方法よりも一桁小さいシャードで SAFE をトレーニングすることができます (したがって、忘却コストが削減されます)。

要約(オリジナル)

We present Synergy Aware Forgetting Ensemble (SAFE), a method to adapt large models on a diverse collection of data while minimizing the expected cost to remove the influence of training samples from the trained model. This process, also known as selective forgetting or unlearning, is often conducted by partitioning a dataset into shards, training fully independent models on each, then ensembling the resulting models. Increasing the number of shards reduces the expected cost to forget but at the same time it increases inference cost and reduces the final accuracy of the model since synergistic information between samples is lost during the independent model training. Rather than treating each shard as independent, SAFE introduces the notion of a shard graph, which allows incorporating limited information from other shards during training, trading off a modest increase in expected forgetting cost with a significant increase in accuracy, all while still attaining complete removal of residual influence after forgetting. SAFE uses a lightweight system of adapters which can be trained while reusing most of the computations. This allows SAFE to be trained on shards an order-of-magnitude smaller than current state-of-the-art methods (thus reducing the forgetting costs) while also maintaining high accuracy, as we demonstrate empirically on fine-grained computer vision datasets.

arxiv情報

著者 Yonatan Dukler,Benjamin Bowman,Alessandro Achille,Aditya Golatkar,Ashwin Swaminathan,Stefano Soatto
発行日 2023-08-22 16:42:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク