要約
現在のアルゴリズムの広範な応用は、意思決定を行うための、曖昧な概念 (メリットなど) の形式的かつ定量的な測定です。
人々が有利な決定結果を得るためにこの種の評価に戦略的に対応すると、その行動は道徳的判断の対象となる可能性があります。
それらは、「システムを悪用している」または「不正行為」、あるいは (他の場合には)「正直な努力」または「改善」を投資していると表現される場合もあります。
戦略的行動に関する機械学習の文献は、より有利な評価を得るために意思決定主体が費やす努力を強調することで、こうしたダイナミクスを説明しようと試みてきた。そのような操作を先制したり阻止する方法を提供する作品もあれば、「ゲーム」行動と「改善」行動を区別する作品もある
一方で、労力の負担や分類システムの異なる効果を測定することを目的とするものもあります。
私たちは別の出発点から始めます。つまり、評価の設計自体は、評価者が持つ、より広範な社会的目標とは一致しない可能性のある目標を推進するものとして理解できるということです。
評価は、評価者と評価の主体の両方が自己利益に基づいて行われる戦略的相互作用を表すという考えを発展させるために、3 つの相互作用エージェント (意思決定主体、評価主体) を使用して評価のプロセスを表すモデルを提案しました。
評価者と社会は、価値観と監視メカニズムの束を表します。
私たちは、1 人または 2 人のプレイヤーが自分の利益を高めるために他のプレイヤーの利益を戦略的に損なう多くの社会システムにこのモデルが適用できることを強調します。
評価者自身を戦略的なものとして扱うことで、意思決定の主体に向けられた精査を、評価の制度設計を支えるインセンティブに向けてやり直すことが可能になります。
戦略的行動の道徳的地位は、多くの場合、そのような行動を引き起こす評価とインセンティブの道徳的地位に依存します。
要約(オリジナル)
A broad current application of algorithms is in formal and quantitative measures of murky concepts — like merit — to make decisions. When people strategically respond to these sorts of evaluations in order to gain favorable decision outcomes, their behavior can be subjected to moral judgments. They may be described as ‘gaming the system’ or ‘cheating,’ or (in other cases) investing ‘honest effort’ or ‘improving.’ Machine learning literature on strategic behavior has tried to describe these dynamics by emphasizing the efforts expended by decision subjects hoping to obtain a more favorable assessment — some works offer ways to preempt or prevent such manipulations, some differentiate ‘gaming’ from ‘improvement’ behavior, while others aim to measure the effort burden or disparate effects of classification systems. We begin from a different starting point: that the design of an evaluation itself can be understood as furthering goals held by the evaluator which may be misaligned with broader societal goals. To develop the idea that evaluation represents a strategic interaction in which both the evaluator and the subject of their evaluation are operating out of self-interest, we put forward a model that represents the process of evaluation using three interacting agents: a decision subject, an evaluator, and society, representing a bundle of values and oversight mechanisms. We highlight our model’s applicability to a number of social systems where one or two players strategically undermine the others’ interests to advance their own. Treating evaluators as themselves strategic allows us to re-cast the scrutiny directed at decision subjects, towards the incentives that underpin institutional designs of evaluations. The moral standing of strategic behaviors often depend on the moral standing of the evaluations and incentives that provoke such behaviors.
arxiv情報
著者 | Benjamin Laufer,Jon Kleinberg,Karen Levy,Helen Nissenbaum |
発行日 | 2023-10-05 16:33:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google