Fair, Manipulation-Robust, and Transparent Sortition

要約

政治的代表者を無作為に選出する選別は、市民集会などの審議プロセスの参加者を選ぶために世界中でますます利用されている。
ソートの実際的な重要性を動機として、ボランティアのプールの中からパネルを選択することを目的としたソート アルゴリズムに関する研究が最近急増しています。
このパネルは、主要な人口サブグループの表現を強制するクォータを満たす必要があります。
過去の研究は、凸型平等目標によって測定されるように、ボランティアの選択の機会が最大限に等しいことを保証しながら、このタスクを達成するためのアルゴリズム的アプローチに貢献してきました。
そこで問題は、どの平等目標が正しいのかということです。
これまでの研究では主に、ボランティアに与えられる選択の最大チャンスを最小化する目標と最小チャンスを最大化するミニマックス目標とレキシミン目標を研究してきました。
最近の研究では、これらの目標の両方に重大な弱点があることが明らかになりました。Minimax は操作に対して非常に堅牢ですが、恣意的に不公平です。
逆に、レキシミンは非常に公平ですが、恣意的に操作できます。
このギャップを考慮して、私たちは新しい平等目標であるゴルディロックスを提案します。これは、どのボランティアも選出の機会が少なすぎたり多すぎたりしないようにすることで、これらの理想を同時に達成することを目的としています。
私たちは、ゴルディロックスがこれらの理想を達成する範囲を理論的に制限し、重要な意味で、ゴルディロックスが特定のインスタンスで利用可能な最良のソリューションの中で回復することを発見しました。
次に、3 番目の目標である透明性を達成するために、Goldilocks の出力が変換されるケースまで範囲を拡張します。
実際のデータにおけるゴルディロックの経験的分析はさらに有望です。この目的により、ほとんどの実際のインスタンスでインスタンス最適に近い最小および最大の選択確率が同時に達成されることがわかりました。この結果は、どのアルゴリズムでも可能であるとさえ保証されていません。

要約(オリジナル)

Sortition, the random selection of political representatives, is increasingly being used around the world to choose participants of deliberative processes like Citizens’ Assemblies. Motivated by sortition’s practical importance, there has been a recent flurry of research on sortition algorithms, whose task it is to select a panel from among a pool of volunteers. This panel must satisfy quotas enforcing representation of key population subgroups. Past work has contributed an algorithmic approach for fulfilling this task while ensuring that volunteers’ chances of selection are maximally equal, as measured by any convex equality objective. The question, then, is: which equality objective is the right one? Past work has mainly studied the objectives Minimax and Leximin, which respectively minimize the maximum and maximize the minimum chance of selection given to any volunteer. Recent work showed that both of these objectives have key weaknesses: Minimax is highly robust to manipulation but is arbitrarily unfair; oppositely, Leximin is highly fair but arbitrarily manipulable. In light of this gap, we propose a new equality objective, Goldilocks, that aims to achieve these ideals simultaneously by ensuring that no volunteer receives too little or too much chance of selection. We theoretically bound the extent to which Goldilocks achieves these ideals, finding that in an important sense, Goldilocks recovers among the best available solutions in a given instance. We then extend our bounds to the case where the output of Goldilocks is transformed to achieve a third goal, Transparency. Our empirical analysis of Goldilocks in real data is even more promising: we find that this objective achieves nearly instance-optimal minimum and maximum selection probabilities simultaneously in most real instances — an outcome not even guaranteed to be possible for any algorithm.

arxiv情報

著者 Carmel Baharav,Bailey Flanigan
発行日 2024-06-26 16:26:50+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI パーマリンク