Incentive Allocation in Vertical Federated Learning Based on Bankruptcy Problem

要約

垂直フェデレーテッド ラーニング (VFL) は、さまざまな関係者間で垂直に分割されたプライベート データを使用して、機械学習モデルを共同でトレーニングするための有望なアプローチです。
理想的には、VFL 設定では、アクティブなパーティ (ラベル付きのサンプルの特徴を所有するパーティ) は、プライバシーを保護しながら、いくつかのパッシブなパーティ (ラベルのない同じサンプルの追加の特徴を所有するパーティ) との協力を通じて機械学習モデルを改善することで利益を得ることができます。
ただし、消極的な当事者に VFL への参加を促すのは困難な場合があります。
この論文では、VFL プロセスへの貢献に基づいて、能動的当事者が受動的当事者にインセンティブを割り当てる問題に焦点を当てます。
私たちはこの問題を破産問題として知られる Nucleolus ゲーム理論の概念の変形として定式化し、タルムードの除算ルールを使用して解決します。
我々は、合成データセットと現実世界のデータセットで提案した方法を評価し、それが連合モデルにデータを提供する受動的な関係者間でのインセンティブ配分の公平性と安定性を保証することを示します。
さらに、私たちの方法をシャプレー値を計算する既存のソリューションと比較し、私たちのアプローチがより少ない計算でより効率的なソリューションを提供することを示します。

要約(オリジナル)

Vertical federated learning (VFL) is a promising approach for collaboratively training machine learning models using private data partitioned vertically across different parties. Ideally in a VFL setting, the active party (party possessing features of samples with labels) benefits by improving its machine learning model through collaboration with some passive parties (parties possessing additional features of the same samples without labels) in a privacy preserving manner. However, motivating passive parties to participate in VFL can be challenging. In this paper, we focus on the problem of allocating incentives to the passive parties by the active party based on their contributions to the VFL process. We formulate this problem as a variant of the Nucleolus game theory concept, known as the Bankruptcy Problem, and solve it using the Talmud’s division rule. We evaluate our proposed method on synthetic and real-world datasets and show that it ensures fairness and stability in incentive allocation among passive parties who contribute their data to the federated model. Additionally, we compare our method to the existing solution of calculating Shapley values and show that our approach provides a more efficient solution with fewer computations.

arxiv情報

著者 Afsana Khan,Marijn ten Thij,Frank Thuijsman,Anna Wilbik
発行日 2023-07-07 11:08:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.GT, cs.LG パーマリンク