Improved Differentially Private and Lazy Online Convex Optimization

要約

$(\epsilon, \delta)$-差分プライベートオンライン凸最適化 (OCO) のタスクを研究します。
オンライン環境では、それぞれの個別の決定または反復のリリースには、プライバシーが失われる可能性が伴います。
この問題には、Jain らから始まった長い研究の歴史があります。
[2012]、{\epsilon} の領域がそれほど小さくないことに関する最もよく知られた結果は、Agarwal et al. (2012) に提示されています。
[2023年]。
この論文では、Agarwal らの結果を改良しています。
[2023] は、滑らかさの要件を削除するだけでなく、寸法係数に関しても同様です。
私たちの結果は、この体制における DP-OCO の最もよく知られたレートです。
私たちのアルゴリズムは、拒否サンプリングによってスイッチの数を明示的に制限するというアイデアを導入した [Asi et al., 2023] の研究に基づいて構築されています。
私たちのアルゴリズムの主な革新は、対数凹の強い密度からのサンプリングを使用することです。これにより、寸法係数をより適切にトレードオフできるようになり、結果が改善されます。

要約(オリジナル)

We study the task of $(\epsilon, \delta)$-differentially private online convex optimization (OCO). In the online setting, the release of each distinct decision or iterate carries with it the potential for privacy loss. This problem has a long history of research starting with Jain et al. [2012] and the best known results for the regime of {\epsilon} not being very small are presented in Agarwal et al. [2023]. In this paper we improve upon the results of Agarwal et al. [2023] in terms of the dimension factors as well as removing the requirement of smoothness. Our results are now the best known rates for DP-OCO in this regime. Our algorithms builds upon the work of [Asi et al., 2023] which introduced the idea of explicitly limiting the number of switches via rejection sampling. The main innovation in our algorithm is the use of sampling from a strongly log-concave density which allows us to trade-off the dimension factors better leading to improved results.

arxiv情報

著者 Naman Agarwal,Satyen Kale,Karan Singh,Abhradeep Guha Thakurta
発行日 2023-12-20 16:39:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.DS, cs.LG, stat.ML パーマリンク