BARA: Efficient Incentive Mechanism with Online Reward Budget Allocation in Cross-Silo Federated Learning

要約

タイトル: クロスシロフェデレーテッド学習におけるバジェット割り当てを用いた効率的なインセンティブメカニズム「BARA」
要約:
– Federated learning(FL)は、データプライバシーを保護できる見通しのある分散型機械学習フレームワークである。
– 特に、クロスシロFLは、複数の通信ラウンドでモデルパラメータを交換して異なる組織の分離されたデータアイランドをパラメータサーバー(PS)と協力させることにより、モデルトレーニングを完了することができる。
– クロスシロFLにおいて、データオーナーがFLトレーニングにモデルを貢献するためのインセンティブメカニズムは不可欠である。
– しかしながら、異なるラウンド間で報酬予算を割り当てる方法については、多くの既存の研究によって大幅に見落とされている重要だが複雑な問題である。
– この問題の課題は、報酬予算の割り当てとFLのモデルユーティリティ改善との間の不透明なフィードバックにあり、最適な報酬予算の割り当てが複雑になる。
– この問題に対処するために、我々は、Bayesian optimizationを使用したオンライン報酬予算割り当てアルゴリズム(BARA)を設計した。
– 具体的には、BARAは履歴的なトレーニングレコードに基づいて、報酬予算割り当てと最終モデル精度との複雑な関係をモデル化することができるため、各通信ラウンドに割り当てられる報酬予算を動的に最適化して、最終モデルのユーティリティを最大化することができる。
– さらに、BARAアルゴリズムを逆オークションベースのインセンティブメカニズムに組み込んで、その有効性を示した。
– 実際のデータセットでの広範な実験により、BARAが同じ報酬予算でモデルのユーティリティを改善して、競合するベースラインよりも劇的に優れていることを実証した。

要約(オリジナル)

Federated learning (FL) is a prospective distributed machine learning framework that can preserve data privacy. In particular, cross-silo FL can complete model training by making isolated data islands of different organizations collaborate with a parameter server (PS) via exchanging model parameters for multiple communication rounds. In cross-silo FL, an incentive mechanism is indispensable for motivating data owners to contribute their models to FL training. However, how to allocate the reward budget among different rounds is an essential but complicated problem largely overlooked by existing works. The challenge of this problem lies in the opaque feedback between reward budget allocation and model utility improvement of FL, making the optimal reward budget allocation complicated. To address this problem, we design an online reward budget allocation algorithm using Bayesian optimization named BARA (\underline{B}udget \underline{A}llocation for \underline{R}everse \underline{A}uction). Specifically, BARA can model the complicated relationship between reward budget allocation and final model accuracy in FL based on historical training records so that the reward budget allocated to each communication round is dynamically optimized so as to maximize the final model utility. We further incorporate the BARA algorithm into reverse auction-based incentive mechanisms to illustrate its effectiveness. Extensive experiments are conducted on real datasets to demonstrate that BARA significantly outperforms competitive baselines by improving model utility with the same amount of reward budget.

arxiv情報

著者 Yunchao Yang,Yipeng Zhou,Miao Hu,Di Wu,Quan Z. Sheng
発行日 2023-05-09 07:36:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.LG パーマリンク