要約
一般化された線形コンテキスト盗賊におけるプライベートラーニングの問題を分析します。
私たちのアプローチは、再加重回帰の新しい方法に基づいており、注文$ \ sqrt {t}+\ frac {1} {\ alpha} $および$ \ sqrt {t}/\ alpha $を順序の後悔の効率的なアルゴリズムを生成します。
それぞれ$ \ alpha $ -Privacyの共同およびローカルモデル。
さらに、プライベート線形モデルと線形文脈的盗賊で寸法に依存しないレートを達成する最適に近いプライベート手順を提供します。
特に、我々の結果は、私たちが考慮するすべての設定で共同プライバシーがほぼ「無料」であることを意味し、AzizeとBasu(2024)によってもたらされる未解決の問題に部分的に対処します。
要約(オリジナル)
We analyze the problem of private learning in generalized linear contextual bandits. Our approach is based on a novel method of re-weighted regression, yielding an efficient algorithm with regret of order $\sqrt{T}+\frac{1}{\alpha}$ and $\sqrt{T}/\alpha$ in the joint and local model of $\alpha$-privacy, respectively. Further, we provide near-optimal private procedures that achieve dimension-independent rates in private linear models and linear contextual bandits. In particular, our results imply that joint privacy is almost ‘for free’ in all the settings we consider, partially addressing the open problem posed by Azize and Basu (2024).
arxiv情報
著者 | Fan Chen,Jiachun Li,Alexander Rakhlin,David Simchi-Levi |
発行日 | 2025-02-18 18:35:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google