要約
機械の非学習手法では、特定のトレーニング サンプルの影響を除去できるように、事前トレーニングされたモデルを修正しようとします。
効果的な消去に加えて、低い計算コストと一般的なユーティリティの保持も非常に望ましいです。
既存のアンラーニング手法では通常、モデル パラメーターの反復的な更新が必要となるため、高い計算コストが発生します。
この研究では、モデル パラメーターの単一層のみを変更する、1 回の勾配計算のみを必要とする効率的な方法を提案します。
具体的には、まず、忘れの重要性が高く保持の影響力が低いパレート フロントにある少数のモデル レイヤーをクリティカル レイヤーとして特定します。
次に、適切なステップ サイズを検索し、他の層をフリーズしたままにして、単一の重要な層の勾配方向に沿ってステップを実行します。
この方法は高度にモジュール化されており、制御可能な方法で複数の概念を同時に学習するために使用できます。
私たちは、CLIP、安定拡散、VLM などのさまざまなモデルでこの手法の有効性と効率性を実証し、他の最先端の手法を上回ります。
要約(オリジナル)
Machine unlearning methods seek to revise pretrained models such that effects of certain training samples can be removed. In addition to effective erasure, low computational cost and general utility retention are also highly desirable. Existing unlearning methods usually involve iterative updates over the model parameters, which incurs a high computational cost. In this work, we propose an efficient method that only requires a one-time gradient computation, with which we modify only a single layer of model parameters. Specifically, we first identify a small number of model layers that lie on the Pareto front of high forget importance and low retain influence as critical layers. Then we search for a suitable step size and take a step along the gradient direction of a single critical layer while keeping other layers frozen. This method is highly modular and can be used to unlearn multiple concepts simultaneously in a controllable manner. We demonstrate the effectiveness and efficiency of this method on various models including CLIP, stable diffusion, and VLMs, surpassing other state-of-the-art methods.
arxiv情報
著者 | Zikui Cai,Yaoteng Tan,M. Salman Asif |
発行日 | 2024-07-16 15:52:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google