要約
デジタル経済の発展により、データは、仕事と生活の両方に不可欠なリソースとしてますます認識されています。
ただし、プライバシーの懸念により、データ所有者は、直接データ転送ではなく、情報フローを介してデータの値を最大化する傾向があります。
Federated Learning(FL)は、プライバシーを維持しながら、共同トレーニングモデルに効果的なアプローチを提供します。
ただし、さまざまなデータ所有者がデータリソースの量と品質に変動するだけでなく、モデルパラメーターとトレーニングデータが成長するにつれて、データとコンピューティングリソースの間の不一致にも直面しています。
これらの課題は、データ所有者の参加意欲を妨げ、データ資産の有効性を低下させます。
この作業では、最初に、モデル所有者、データ所有者、コンピューティングセンターを含むリソースが分類されたFL環境を特定します。
トリプルタイトのスタッカーバーグモデルを設計し、参加者がグローバルユーティリティを最適化するためのスタッカーバーグナッシュ平衡(SNE)を理論的に分析します。
品質認識の動的リソースが分離されたFLアルゴリズム(QD-RDFL)を提案します。ここでは、すべての関係者の最適な戦略を導き出し、解決して、彼女が後方誘導を使用して達成します。
実際のトレーニング中にデータ所有者からグローバルモデルへのデータ品質の貢献を評価することにより。
当社の包括的な実験は、私たちの方法が関係する3つの関係者のリンクを効果的に促進し、グローバルなユーティリティとデータ資産価値を最大化することを実証しています。
要約(オリジナル)
With the development of the digital economy, data is increasingly recognized as an essential resource for both work and life. However, due to privacy concerns, data owners tend to maximize the value of data through information flow rather than direct data transfer. Federated learning (FL) provides an effective approach to collaborative training models while preserving privacy. However, different data owners not only have variations in the quantity and quality of their data resources but also face mismatches between data and computing resources as model parameters and training data grow. These challenges hinder data owners’ willingness to participate and reduce the effectiveness of data assetization. In this work, we first identify the resource-decoupled FL environment, which includes model owners, data owners, and computing centers. We design a Tripartite Stackelberg Model and theoretically analyze the Stackelberg-Nash Equilibrium (SNE) for participants to optimize global utility. We propose the Quality-aware Dynamic Resources-decoupled FL algorithm (QD-RDFL), in which we derive and solve the optimal strategies of all parties to achieve SHE using backward induction, and a dynamic optimization mechanism is designed to improve the optimal strategy profile by evaluating the contribution of data quality from data owners to the global model during real training. Our comprehensive experiments demonstrate that our method effectively encourages the linkage of the three parties involved, maximizing global utility and data asset value.
arxiv情報
著者 | Jianzhe Zhao,Feida Zhu,Lingyan He,Zixin Tang,Mingce Gao,Shiyu Yang,Guibing Guo |
発行日 | 2025-01-24 15:49:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google