Amalgam: A Framework for Obfuscated Neural Network Training on the Cloud

要約

クラウド上で独自のデータセットを使用して独自のニューラル ネットワーク (NN) モデルをトレーニングすると、モデル アーキテクチャとデータセットがクラウド サービス プロバイダーに公開されるリスクが伴います。
この問題に取り組むために、この論文では、既存のクラウドベースの環境でプライバシーを保護する方法で NN モデルをトレーニングするための、Amalgam と呼ばれる NN 難読化フレームワークを紹介します。
アマルガムは、元のモデル アーキテクチャとトレーニング データセットの両方をクラウドから「隠す」ために、適切に調整されたノイズを使用してトレーニングに使用される NN モデルとデータセットを強化することでこれを実現します。
トレーニング後、Amalgam は拡張モデルから元のモデルを抽出し、ユーザーに返します。
さまざまなコンピューター ビジョンおよび自然言語処理モデルとデータセットを使用した評価結果は、Amalgam が (i) 正確さに影響を与えることなくトレーニング プロセスに適度なオーバーヘッドを導入し、(ii) モデルの精度に影響を与えないことを示しています。
プロトタイプの実装は、https://github.com/SifatTaj/amalgam から入手できます。

要約(オリジナル)

Training a proprietary Neural Network (NN) model with a proprietary dataset on the cloud comes at the risk of exposing the model architecture and the dataset to the cloud service provider. To tackle this problem, in this paper, we present an NN obfuscation framework, called Amalgam, to train NN models in a privacy-preserving manner in existing cloud-based environments. Amalgam achieves that by augmenting NN models and the datasets to be used for training with well-calibrated noise to ‘hide’ both the original model architectures and training datasets from the cloud. After training, Amalgam extracts the original models from the augmented models and returns them to users. Our evaluation results with different computer vision and natural language processing models and datasets demonstrate that Amalgam: (i) introduces modest overheads into the training process without impacting its correctness, and (ii) does not affect the model’s accuracy. The prototype implementation is available at: https://github.com/SifatTaj/amalgam

arxiv情報

著者 Sifat Ut Taki,Spyridon Mastorakis
発行日 2024-10-28 15:39:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CR, cs.LG, cs.SY, eess.SY パーマリンク