要約
私たちは、あらゆる機械学習アルゴリズムを対話型プロトコルに変換する効率的な削減を提案し、他の当事者 (人間など) とのコラボレーションを可能にして、予測に関する合意を達成し、精度を向上させます。
このアプローチは、ベイズ合理性の計算的および統計的に扱いやすい緩和である校正条件を各当事者に課します。
これらの条件は事前自由設定でも合理的であり、オーマンの古典的な「合意定理」の重要な一般化を表しています。
私たちのプロトコルでは、モデルは最初に予測を提供します。
すると人間は、同意するかフィードバックを提供することで応答します。
モデルは状態を更新し、予測を修正しますが、人間は信念を調整する可能性があります。
この反復プロセスは、両当事者が合意に達するまで継続されます。
最初に、オーマンの合意定理を拡張する設定を研究します。この設定では、当事者は現在の推定値を繰り返し共有することで、一次元の期待値について合意することを目指します。
ここでは、より弱い仮定の下で、Aaronson’05 の収束定理を復元します。
次に、当事者が d 個の結果を伴う分布に対して信念を抱いているケースに取り組み、2 つのフィードバック メカニズムを調査します。
1 つ目は予測のベクトル値推定を含みますが、2 つ目は決定理論的アプローチを採用します。人間は、効用に基づいて有限集合からアクションを実行する必要があり、ラウンドごとに効用を最大化するアクションを伝達します。
この設定では、合意までのラウンド数は d から独立したままになります。
最後に、計算の複雑さが参加者の数に比例して増加する、3 つ以上のパーティが存在するシナリオに一般化します。
当社のプロトコルは、シンプルで効率的な条件に依存しており、個々の当事者だけの精度を超える予測を生成します。
要約(オリジナル)
We present an efficient reduction that converts any machine learning algorithm into an interactive protocol, enabling collaboration with another party (e.g., a human) to achieve consensus on predictions and improve accuracy. This approach imposes calibration conditions on each party, which are computationally and statistically tractable relaxations of Bayesian rationality. These conditions are sensible even in prior-free settings, representing a significant generalization of Aumann’s classic ‘agreement theorem.’ In our protocol, the model first provides a prediction. The human then responds by either agreeing or offering feedback. The model updates its state and revises its prediction, while the human may adjust their beliefs. This iterative process continues until the two parties reach agreement. Initially, we study a setting that extends Aumann’s Agreement Theorem, where parties aim to agree on a one-dimensional expectation by iteratively sharing their current estimates. Here, we recover the convergence theorem of Aaronson’05 under weaker assumptions. We then address the case where parties hold beliefs over distributions with d outcomes, exploring two feedback mechanisms. The first involves vector-valued estimates of predictions, while the second adopts a decision-theoretic approach: the human, needing to take an action from a finite set based on utility, communicates their utility-maximizing action at each round. In this setup, the number of rounds until agreement remains independent of d. Finally, we generalize to scenarios with more than two parties, where computational complexity scales linearly with the number of participants. Our protocols rely on simple, efficient conditions and produce predictions that surpass the accuracy of any individual party’s alone.
arxiv情報
著者 | Natalie Collina,Surbhi Goel,Varun Gupta,Aaron Roth |
発行日 | 2024-11-29 15:52:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google