Alternate Preference Optimization for Unlearning Factual Knowledge in Large Language Models

要約

機械の非学習は、忘却セットとして知られる特定のトレーニング データの影響をモデルから効率的に排除することを目的としています。
しかし、大規模言語モデル (LLM) の既存のアンラーニング手法は、重大な課題に直面しています。それは、忘却セットに関連する応答を抑制するために負のフィードバックのみに依存しているため、多くの場合、無意味または一貫性のない出力が生じ、モデルの有用性が低下し、潜在的なプライバシー リスクが生じます。
この制限に対処するために、我々は代替優先設定最適化 (AltPO) と呼ばれる新しいアプローチを提案します。これは、ネガティブ フィードバックと忘却集合に対するドメイン内ポジティブ フィードバックを組み合わせたものです。
さらに、忘れセットに関連する応答の品質を評価するための新しい評価指標を導入します。
広範な実験により、私たちのアプローチは効果的な再学習を可能にするだけでなく、モデル全体のパフォーマンスを維持しながら望ましくないモデルの動作を回避できることが示されています。
私たちの実装は https://github.com/molereddy/Alternate-Preference-Optimization にあります。

要約(オリジナル)

Machine unlearning aims to efficiently eliminate the influence of specific training data, known as the forget set, from the model. However, existing unlearning methods for Large Language Models (LLMs) face a critical challenge: they rely solely on negative feedback to suppress responses related to the forget set, which often results in nonsensical or inconsistent outputs, diminishing model utility and posing potential privacy risks. To address this limitation, we propose a novel approach called Alternate Preference Optimization (AltPO), which combines negative feedback with in-domain positive feedback on the forget set. Additionally, we introduce new evaluation metrics to assess the quality of responses related to the forget set. Extensive experiments show that our approach not only enables effective unlearning but also avoids undesirable model behaviors while maintaining overall model performance. Our implementation can be found at https://github.com/molereddy/Alternate-Preference-Optimization.

arxiv情報

著者 Anmol Mekala,Vineeth Dorna,Shreya Dubey,Abhishek Lalwani,David Koleczek,Mukund Rungta,Sadid Hasan,Elita Lobo
発行日 2024-12-17 17:45:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.LG パーマリンク