要約
私たちは、機械学習アルゴリズムを展開するデジタル プラットフォーム上でのアルゴリズムによる集団行動に関する原則的な研究を開始します。
私たちは、企業の学習アルゴリズムと相互作用する集団の単純な理論モデルを提案します。
この集団は、参加している個人のデータをプールし、集団の目標を達成するために自分のデータを変更する方法を参加者に指示することでアルゴリズム戦略を実行します。
このモデルの結果を、ノンパラメトリック最適学習アルゴリズム、パラメトリック リスク最小化アルゴリズム、および勾配ベースの最適化の 3 つの基本的な学習理論設定で調査します。
それぞれの環境において、私たちは調整されたアルゴリズム戦略を考案し、集団の規模に応じた自然な成功基準を特徴づけます。
私たちの理論を補完するために、フリーランサー向けのギグ プラットフォームからの何万もの履歴書を対象としたスキル分類タスクに関する体系的な実験を実施しました。
BERT に似た言語モデルの 2,000 回を超えるモデル トレーニングの実行を通じて、経験的な観察と理論による予測の間に顕著な一致が現れることがわかりました。
総合すると、私たちの理論と実験は、非常に小さな分数サイズのアルゴリズム集合体がプラットフォームの学習アルゴリズムに大きな制御を与えることができるという結論を広く支持しています。
要約(オリジナル)
We initiate a principled study of algorithmic collective action on digital platforms that deploy machine learning algorithms. We propose a simple theoretical model of a collective interacting with a firm’s learning algorithm. The collective pools the data of participating individuals and executes an algorithmic strategy by instructing participants how to modify their own data to achieve a collective goal. We investigate the consequences of this model in three fundamental learning-theoretic settings: the case of a nonparametric optimal learning algorithm, a parametric risk minimizer, and gradient-based optimization. In each setting, we come up with coordinated algorithmic strategies and characterize natural success criteria as a function of the collective’s size. Complementing our theory, we conduct systematic experiments on a skill classification task involving tens of thousands of resumes from a gig platform for freelancers. Through more than two thousand model training runs of a BERT-like language model, we see a striking correspondence emerge between our empirical observations and the predictions made by our theory. Taken together, our theory and experiments broadly support the conclusion that algorithmic collectives of exceedingly small fractional size can exert significant control over a platform’s learning algorithm.
arxiv情報
| 著者 | Moritz Hardt,Eric Mazumdar,Celestine Mendler-Dünner,Tijana Zrnic |
| 発行日 | 2024-08-07 16:54:40+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google