要約
協調学習手法には、単一エンティティのデータでトレーニングされたモデルよりも優れた機械学習モデルのトレーニングを可能にする可能性があります。
ただし、多くの場合、このような協力スキームの潜在的な参加者は、それぞれが最良の推奨事項を提供して顧客を引き付けることを目的とする企業など、下流のタスクにおける競合他社です。
これにより、他の参加者のモデルに損害を与える不正な更新が奨励され、コラボレーションの利点が損なわれる可能性があります。
この研究では、そのような相互作用をモデル化するゲームを定式化し、このフレームワーク内で 2 つの学習タスク、すなわち、強凸目標でのシングルラウンド平均推定とマルチラウンド SGD を研究します。
プレーヤーのアクションの自然なクラスについては、合理的なクライアントが更新を強力に操作するように動機付けられ、学習を妨げることを示します。
次に、正直なコミュニケーションを奨励し、完全な協力に匹敵する学習の質を確保するメカニズムを提案します。
最後に、標準的な非凸フェデレーテッド ラーニング ベンチマークにおけるインセンティブ スキームの有効性を実証します。
私たちの研究は、不誠実なクライアントを悪意があると仮定するのではなく、そのインセンティブと行動を明示的にモデル化することで、共同学習の強力な堅牢性を保証できることを示しています。
要約(オリジナル)
Collaborative learning techniques have the potential to enable training machine learning models that are superior to models trained on a single entity’s data. However, in many cases, potential participants in such collaborative schemes are competitors on a downstream task, such as firms that each aim to attract customers by providing the best recommendations. This can incentivize dishonest updates that damage other participants’ models, potentially undermining the benefits of collaboration. In this work, we formulate a game that models such interactions and study two learning tasks within this framework: single-round mean estimation and multi-round SGD on strongly-convex objectives. For a natural class of player actions, we show that rational clients are incentivized to strongly manipulate their updates, preventing learning. We then propose mechanisms that incentivize honest communication and ensure learning quality comparable to full cooperation. Lastly, we empirically demonstrate the effectiveness of our incentive scheme on a standard non-convex federated learning benchmark. Our work shows that explicitly modeling the incentives and actions of dishonest clients, rather than assuming them malicious, can enable strong robustness guarantees for collaborative learning.
arxiv情報
著者 | Florian E. Dorner,Nikola Konstantinov,Georgi Pashaliev,Martin Vechev |
発行日 | 2023-05-25 17:28:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google