Towards Scalable Exact Machine Unlearning Using Parameter-Efficient Fine-Tuning

要約

機械学習の解除は、最初から再トレーニングすることなく、トレーニング済みの機械学習モデルからトレーニング データ インスタンスの影響を効率的に除去するプロセスです。
非学習アプローチの一般的なサブクラスは、モデルからのデータ インスタンスの影響の除去を明示的に保証する手法に焦点を当てた正確な機械の非学習です。
正確な非学習アプローチでは、個々のコンポーネントがデータの素なサブセットでトレーニングされる機械学習モデルが使用されます。
削除中、正確な非学習アプローチでは、モデル全体ではなく、影響を受けるコンポーネントのみが再トレーニングされます。
既存のアプローチでは再トレーニングのコストは削減されますが、組織がモデル コンポーネントを再トレーニングするには依然として費用がかかる可能性があります。これは、運用中のシステムを停止する必要があるためです。これはサービスの障害につながり、顧客に悪影響を及ぼします。
これらの課題に対処するために、モデルのパフォーマンスへの影響を最小限に抑えながら、正確な非学習システムの削除機能を強化するように設計された、シーケンスを意識したシャード スライス トレーニング (S3T) という正確な非学習フレームワークを導入します。
S3T の中核では、軽量のパラメーター効率の高い微調整アプローチを利用しています。これにより、素のデータ スライスでレイヤーを順次トレーニングすることでパラメーターの分離が可能になります。
これにより、データ削除の影響を受けるレイヤーを非アクティブ化するだけで、効率的なアンラーニングが可能になります。
さらに、再トレーニング コストを削減し、モデルのパフォーマンスを向上させるために、複数のデータ シーケンスでモデルをトレーニングします。これにより、S3T は増加した数の削除リクエストを処理できるようになります。
理論的にも経験的にも、S3T は幅広い設定にわたってベースラインと比較して優れた削除機能と向上したパフォーマンスを達成することを実証しています。

要約(オリジナル)

Machine unlearning is the process of efficiently removing the influence of a training data instance from a trained machine learning model without retraining it from scratch. A popular subclass of unlearning approaches is exact machine unlearning, which focuses on techniques that explicitly guarantee the removal of the influence of a data instance from a model. Exact unlearning approaches use a machine learning model in which individual components are trained on disjoint subsets of the data. During deletion, exact unlearning approaches only retrain the affected components rather than the entire model. While existing approaches reduce retraining costs, it can still be expensive for an organization to retrain a model component as it requires halting a system in production, which leads to service failure and adversely impacts customers. To address these challenges, we introduce an exact unlearning framework — Sequence-aware Sharded Sliced Training (S3T), which is designed to enhance the deletion capabilities of an exact unlearning system while minimizing the impact on model’s performance. At the core of S3T, we utilize a lightweight parameter-efficient fine-tuning approach that enables parameter isolation by sequentially training layers with disjoint data slices. This enables efficient unlearning by simply deactivating the layers affected by data deletion. Furthermore, to reduce the retraining cost and improve model performance, we train the model on multiple data sequences, which allows S3T to handle an increased number of deletion requests. Both theoretically and empirically, we demonstrate that S3T attains superior deletion capabilities and enhanced performance compared to baselines across a wide range of settings.

arxiv情報

著者 Somnath Basu Roy Chowdhury,Krzysztof Choromanski,Arijit Sehanobish,Avinava Dubey,Snigdha Chaturvedi
発行日 2024-10-16 17:57:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク