Fair yet Asymptotically Equal Collaborative Learning

要約

ストリーミング データを使用した協調学習では、ノード (組織など) は、最新のストリーミング データから計算された最新のモデル更新を共有することによって、機械学習 (ML) モデルを共同かつ継続的に学習します。
より機知に富んだノードがモデルの更新を喜んで共有するには、かなりのインセンティブを与える必要があります。
この論文では、ノードが貢献に見合った報酬を受け取ることができるように、公平性を保証するインセンティブ設計について検討します。
私たちのアプローチは、探索してから活用する定式化を活用して、理論的に保証された公平なインセンティブ(つまり、活用)を実現するためのノードの貢献(つまり、探索)を推定します。
しかし、公平性を保証するための既存のアプローチから生じる「金持ちがさらに金持ちになる」現象が観察され、リソースに恵まれないノードの参加が妨げられます。
これを修正するために、漸近的等価性をさらに維持します。つまり、リソースの少ないノードが、最終的にはリソースの多い/「豊富な」ノードと同等のパフォーマンスを達成します。
私たちは、実世界のストリーミング データを使用した 2 つの設定 (フェデレーテッド オンライン増分学習とフェデレーテッド強化学習) で、私たちが提案するアプローチが公平性と学習パフォーマンスにおいて既存のベースラインを上回り、平等性を維持する点で競争力を維持できることを実証しました。

要約(オリジナル)

In collaborative learning with streaming data, nodes (e.g., organizations) jointly and continuously learn a machine learning (ML) model by sharing the latest model updates computed from their latest streaming data. For the more resourceful nodes to be willing to share their model updates, they need to be fairly incentivized. This paper explores an incentive design that guarantees fairness so that nodes receive rewards commensurate to their contributions. Our approach leverages an explore-then-exploit formulation to estimate the nodes’ contributions (i.e., exploration) for realizing our theoretically guaranteed fair incentives (i.e., exploitation). However, we observe a ‘rich get richer’ phenomenon arising from the existing approaches to guarantee fairness and it discourages the participation of the less resourceful nodes. To remedy this, we additionally preserve asymptotic equality, i.e., less resourceful nodes achieve equal performance eventually to the more resourceful/’rich’ nodes. We empirically demonstrate in two settings with real-world streaming data: federated online incremental learning and federated reinforcement learning, that our proposed approach outperforms existing baselines in fairness and learning performance while remaining competitive in preserving equality.

arxiv情報

著者 Xiaoqiang Lin,Xinyi Xu,See-Kiong Ng,Chuan-Sheng Foo,Bryan Kian Hsiang Low
発行日 2023-06-09 08:57:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.GT, cs.LG, cs.MA パーマリンク