Be like a Goldfish, Don’t Memorize! Mitigating Memorization in Generative LLMs

要約

大規模な言語モデルはトレーニング データを記憶して繰り返す可能性があるため、プライバシーと著作権のリスクが生じます。
暗記を軽減するために、金魚損失と呼ばれる次のトークンのトレーニング目標に微妙な変更を導入します。
トレーニング中、ランダムにサンプリングされたトークンのサブセットは損失計算から除外されます。
これらのドロップされたトークンはモデルに記憶されないため、トレーニング セットからトークンの完全なチェーンを逐語的に再現することができなくなります。
私たちは、事前トレーニング済みおよびゼロからトレーニング済みの両方で、10 億規模の Llama-2 モデルをトレーニングする広範な実験を実行し、下流のベンチマークにほとんどまたはまったく影響を与えずに、抽出可能な記憶量が大幅に削減されることを実証しました。

要約(オリジナル)

Large language models can memorize and repeat their training data, causing privacy and copyright risks. To mitigate memorization, we introduce a subtle modification to the next-token training objective that we call the goldfish loss. During training, a randomly sampled subset of tokens are excluded from the loss computation. These dropped tokens are not memorized by the model, which prevents verbatim reproduction of a complete chain of tokens from the training set. We run extensive experiments training billion-scale Llama-2 models, both pre-trained and trained from scratch, and demonstrate significant reductions in extractable memorization with little to no impact on downstream benchmarks.

arxiv情報

著者 Abhimanyu Hans,Yuxin Wen,Neel Jain,John Kirchenbauer,Hamid Kazemi,Prajwal Singhania,Siddharth Singh,Gowthami Somepalli,Jonas Geiping,Abhinav Bhatele,Tom Goldstein
発行日 2024-06-14 17:44:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク