Emergent segmentation from participation dynamics and multi-learner retraining

要約

データ駆動型サービスに参加するかどうかの選択は、そのサービスの品質に基づいて行われることが多く、サービスの学習と改善の能力に影響を与えます。
私たちは、学習者とユーザーの部分母集団の両方が \emph{リスク軽減} しているときに生じる参加と再トレーニングのダイナミクスを研究します。これは、勾配降下法や乗法重みなどを含む幅広いクラスの更新をカバーします。たとえば、次のように仮定します。
個人は、各プラットフォームが自分にとってどれだけうまく機能するかに比例して、ソーシャル メディア プラットフォームに時間を費やすことを選択します。
各プラットフォームは、アクティブ ユーザーに関するデータも収集し、それを使用して勾配ステップでパラメーターを更新します。
この例とダイナミクスの一般的なクラスでは、漸近的に安定した平衡のみがセグメント化され、部分母集団が 1 人の学習者に割り当てられることを示します。
穏やかな仮定の下では、功利主義的な社会的最適値は安定した均衡です。
リスク最小化を繰り返すと、単一の学習者 \citep{hachimoto2018fairness,miller2021outside} に対して表現格差と高い全体損失が生じる可能性があることを示した以前の研究とは対照的に、複数の学習者で近視眼的な更新を繰り返すと、より良い結果が得られることがわかりました。
実際のデータから初期化されたシミュレートされた例を介して現象を説明します。

要約(オリジナル)

The choice to participate in a data-driven service, often made on the basis of quality of that service, influences the ability of the service to learn and improve. We study the participation and retraining dynamics that arise when both the learners and sub-populations of users are \emph{risk-reducing}, which cover a broad class of updates including gradient descent, multiplicative weights, etc. Suppose, for example, that individuals choose to spend their time amongst social media platforms proportionally to how well each platform works for them. Each platform also gathers data about its active users, which it uses to update parameters with a gradient step. For this example and for our general class of dynamics, we show that the only asymptotically stable equilibria are segmented, with sub-populations allocated to a single learner. Under mild assumptions, the utilitarian social optimum is a stable equilibrium. In contrast to previous work, which shows that repeated risk minimization can result in representation disparity and high overall loss for a single learner \citep{hashimoto2018fairness,miller2021outside}, we find that repeated myopic updates with multiple learners lead to better outcomes. We illustrate the phenomena via a simulated example initialized from real data.

arxiv情報

著者 Sarah Dean,Mihaela Curmei,Lillian J. Ratliff,Jamie Morgenstern,Maryam Fazel
発行日 2023-08-23 16:18:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.GT, cs.LG, stat.ML パーマリンク