Private Ad Modeling with DP-SGD

要約

プライバシー保護 ML のよく知られたアルゴリズムは、差分プライベート確率的勾配降下法 (DP-SGD) です。
このアルゴリズムはテキストおよび画像データに対して評価されてきましたが、高度な不均衡とまばらなグラデーション更新で悪名高い広告データにはこれまで適用されていませんでした。
この研究では、クリックスルー率、コンバージョン率、コンバージョン イベント数の予測を含むいくつかの広告モデリング タスクに DP-SGD を適用し、実世界のデータセットにおけるプライバシーとユーティリティのトレードオフを評価します。
私たちの研究は、DP-SGD が広告モデリング タスクにプライバシーと実用性の両方を提供できることを経験的に実証した最初の研究です。

要約(オリジナル)

A well-known algorithm in privacy-preserving ML is differentially private stochastic gradient descent (DP-SGD). While this algorithm has been evaluated on text and image data, it has not been previously applied to ads data, which are notorious for their high class imbalance and sparse gradient updates. In this work we apply DP-SGD to several ad modeling tasks including predicting click-through rates, conversion rates, and number of conversion events, and evaluate their privacy-utility trade-off on real-world datasets. Our work is the first to empirically demonstrate that DP-SGD can provide both privacy and utility for ad modeling tasks.

arxiv情報

著者 Carson Denison,Badih Ghazi,Pritish Kamath,Ravi Kumar,Pasin Manurangsi,Krishna Giri Narra,Amer Sinha,Avinash V Varadarajan,Chiyuan Zhang
発行日 2023-10-04 17:10:46+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG パーマリンク