要約
ニューラル ネットワークに基づいて機械学習モデルをトレーニングするには、機密情報が含まれる可能性がある大規模なデータセットが必要です。
ただし、モデルはこれらのデータセットからの個人情報を公開すべきではありません。
差分プライベート SGD [DP-SGD] では、新しいモデルをトレーニングするために標準の確率的勾配降下法 [SGD] アルゴリズムを変更する必要があります。
この短い論文では、同じ目標をより効率的な方法で達成するための新しい正則化戦略が提案されています。
要約(オリジナル)
Training machine learning models based on neural networks requires large datasets, which may contain sensitive information. The models, however, should not expose private information from these datasets. Differentially private SGD [DP-SGD] requires the modification of the standard stochastic gradient descent [SGD] algorithm for training new models. In this short paper, a novel regularization strategy is proposed to achieve the same goal in a more efficient manner.
arxiv情報
著者 | Francisco Aguilera-Martínez,Fernando Berzal |
発行日 | 2024-09-25 17:59:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google