要約
大規模な言語モデルはトレーニング データを記憶して繰り返す可能性があるため、プライバシーと著作権のリスクが生じます。
暗記を軽減するために、金魚損失と呼ばれる次のトークンのトレーニング目標に微妙な変更を導入します。
トレーニング中、ランダムにサンプリングされたトークンのサブセットは損失計算から除外されます。
これらのドロップされたトークンはモデルに記憶されないため、トレーニング セットからトークンの完全なチェーンを逐語的に再現することができなくなります。
私たちは、事前トレーニング済みおよびゼロからトレーニング済みの両方で、10 億規模の Llama-2 モデルをトレーニングする広範な実験を実行し、下流のベンチマークにほとんどまたはまったく影響を与えずに、抽出可能な記憶量が大幅に削減されることを実証しました。
要約(オリジナル)
Large language models can memorize and repeat their training data, causing privacy and copyright risks. To mitigate memorization, we introduce a subtle modification to the next-token training objective that we call the goldfish loss. During training, a randomly sampled subset of tokens are excluded from the loss computation. These dropped tokens are not memorized by the model, which prevents verbatim reproduction of a complete chain of tokens from the training set. We run extensive experiments training billion-scale Llama-2 models, both pre-trained and trained from scratch, and demonstrate significant reductions in extractable memorization with little to no impact on downstream benchmarks.
arxiv情報
著者 | Abhimanyu Hans,Yuxin Wen,Neel Jain,John Kirchenbauer,Hamid Kazemi,Prajwal Singhania,Siddharth Singh,Gowthami Somepalli,Jonas Geiping,Abhinav Bhatele,Tom Goldstein |
発行日 | 2024-06-14 17:44:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google