要約
プリンシパルは、バイナリ状態の公的に観察可能な予測を生成するアルゴリズムを設計します。
彼女は、予測に基づいて直接行動するか、それとも個人情報を持っているが不一致の可能性があるエージェントに決定を委任するかを決定する必要があります。
このような環境における予測アルゴリズムと委任ルールの最適設計を検討します。
3 つの重要な発見が明らかになります。 (1) 委任は、プリンシパルがエージェントの情報を観察した場合にエージェントと同じ二者決定を下す場合に限り、最適です。
(2) プリンシパルがアルゴリズムの予測に基づいて行動できる場合でも、最も有益なアルゴリズムを提供することは最適ではない可能性があります。
代わりに、最適なアルゴリズムは、1 つの状態に関するより多くの情報を提供し、もう 1 つの状態に関する情報を制限する場合があります。
(3) 「人間参加型」の維持や最大限の予測精度の要求など、アルゴリズムに対する一般的な制限により、完全に調整されたエージェントや状態を明らかにする信号が存在しない場合、意思決定の品質が厳密に低下します。
これらの調査結果は、アルゴリズムと人間の意思決定者の間で共通の好みの不一致を緩和するための対策が講じられない場合、人間と機械のコラボレーションのパフォーマンスが低下することを予測しています。
要約(オリジナル)
A principal designs an algorithm that generates a publicly observable prediction of a binary state. She must decide whether to act directly based on the prediction or to delegate the decision to an agent with private information but potential misalignment. We study the optimal design of the prediction algorithm and the delegation rule in such environments. Three key findings emerge: (1) Delegation is optimal if and only if the principal would make the same binary decision as the agent had she observed the agent’s information. (2) Providing the most informative algorithm may be suboptimal even if the principal can act on the algorithm’s prediction. Instead, the optimal algorithm may provide more information about one state and restrict information about the other. (3) Common restrictions on algorithms, such as keeping a ‘human-in-the-loop’ or requiring maximal prediction accuracy, strictly worsen decision quality in the absence of perfectly aligned agents and state-revealing signals. These findings predict the underperformance of human-machine collaborations if no measures are taken to mitigate common preference misalignment between algorithms and human decision-makers.
arxiv情報
著者 | Ruqing Xu |
発行日 | 2024-02-14 18:32:30+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google