要約
分散機械学習では、複数のワーカー間でコンピューティング タスクを委任することで、広範なデータセットの並列トレーニングが可能になります。
分散機械学習にはコスト削減の利点があるにもかかわらず、最終モデルの重みが普及すると、作業者がトレーニング計算への関与を立証するのに苦労するため、モデルの所有権をめぐる潜在的な紛争が発生することがよくあります。
上記の所有権の問題に対処し、偶発的な障害や悪意のある攻撃を防ぐために、ワーカーの計算の整合性と有効性を検証することが、分散機械学習において特に重要になります。
この論文では、限られたオーバーヘッドと簡潔な証明で計算の整合性を確保するための、新しいバイナリ線形ツリーのコミットメントベースの所有権保護モデルを提案しました。
トレーニング中にパラメーターが頻繁に更新されるため、私たちのコミットメント スキームでは保守可能なツリー構造を導入し、証明の更新コストを削減します。
SNARK ベースの検証可能な計算とは異なり、私たちのモデルは内積引数を活用することで効率的な証明の集約を実現します。
さらに、モデルの重みの証明には、コミットメントの偽造や複製を防ぐために、作業者 ID キーによって透かしが入れられます。
パフォーマンス分析と SNARK ベースのハッシュ コミットメントとの比較により、分散機械学習内での計算の整合性を維持する際のモデルの有効性が検証されます。
要約(オリジナル)
Distributed machine learning enables parallel training of extensive datasets by delegating computing tasks across multiple workers. Despite the cost reduction benefits of distributed machine learning, the dissemination of final model weights often leads to potential conflicts over model ownership as workers struggle to substantiate their involvement in the training computation. To address the above ownership issues and prevent accidental failures and malicious attacks, verifying the computational integrity and effectiveness of workers becomes particularly crucial in distributed machine learning. In this paper, we proposed a novel binary linear tree commitment-based ownership protection model to ensure computational integrity with limited overhead and concise proof. Due to the frequent updates of parameters during training, our commitment scheme introduces a maintainable tree structure to reduce the costs of updating proofs. Distinguished from SNARK-based verifiable computation, our model achieves efficient proof aggregation by leveraging inner product arguments. Furthermore, proofs of model weights are watermarked by worker identity keys to prevent commitments from being forged or duplicated. The performance analysis and comparison with SNARK-based hash commitments validate the efficacy of our model in preserving computational integrity within distributed machine learning.
arxiv情報
著者 | Tianxiu Xie,Keke Gai,Jing Yu,Liehuang Zhu |
発行日 | 2024-01-11 13:11:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google