要約
レコメンデーション システムや言語アプリケーションで大規模な埋め込みモデルの使用が増加するにつれて、ユーザー データのプライバシーに対する懸念も高まっています。
差分プライバシーと確率的勾配降下法を組み合わせたトレーニング アルゴリズムである DP-SGD は、モデルの精度を大幅に損なうことなくユーザーのプライバシーを保護する上で主力となってきました。
ただし、DP-SGD を単純にモデルの埋め込みに適用すると、勾配のスパース性が破壊され、トレーニング効率の低下につながる可能性があります。
この問題に対処するために、大規模な埋め込みモデルのプライベート トレーニング中に勾配スパース性を維持する 2 つの新しいアルゴリズム、DP-FEST と DP-AdaFEST を紹介します。
私たちのアルゴリズムは、現実世界のベンチマーク データセットで同等レベルの精度を維持しながら、勾配サイズの大幅な削減 ($10^6 \times$) を達成します。
要約(オリジナル)
As the use of large embedding models in recommendation systems and language applications increases, concerns over user data privacy have also risen. DP-SGD, a training algorithm that combines differential privacy with stochastic gradient descent, has been the workhorse in protecting user privacy without compromising model accuracy by much. However, applying DP-SGD naively to embedding models can destroy gradient sparsity, leading to reduced training efficiency. To address this issue, we present two new algorithms, DP-FEST and DP-AdaFEST, that preserve gradient sparsity during private training of large embedding models. Our algorithms achieve substantial reductions ($10^6 \times$) in gradient size, while maintaining comparable levels of accuracy, on benchmark real-world datasets.
arxiv情報
著者 | Badih Ghazi,Yangsibo Huang,Pritish Kamath,Ravi Kumar,Pasin Manurangsi,Amer Sinha,Chiyuan Zhang |
発行日 | 2023-11-14 17:59:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google