要約
アルゴリズムによる契約設計では、プリンシパルがエージェントに自分の代わりに努力するよう奨励するシナリオを研究します。
この研究では、エージェントのタイプが未知の分布から抽出される設定に焦点を当て、サンプル エージェント タイプから最適に近いコントラクトを学習するためのオフライン学習フレームワークを形式化します。
私たちの分析における中心的なツールは、統計学習理論からの擬似次元の概念です。
疑似次元は、サンプルの複雑さの上限を設定するという役割を超えて、あるクラスの契約の本質的な複雑さを測定し、契約設計における単純さと最適性の間のトレードオフに関する新しい視点を提供します。
我々の主な結果は、線形契約および有界契約に関して、擬次元と表現誤差(元本の効用の損失として定義される)との間の本質的に最適なトレードオフを提供する。
これらのトレードオフを使用して、サンプル効率と時間効率の高い学習アルゴリズムを導き出し、サンプルの複雑さに関してほぼ一致する下限を提供することで、そのアルゴリズムが最適に近いことを実証します。
逆に、無制限の契約については、学習アルゴリズムが存在しないことを示す不可能な結果が証明されます。
最後に、3 つの重要な方法でテクニックを拡張します。
まず、組み合わせアクション モデルに対して洗練された擬似次元とサンプルの複雑性の保証を提供し、臨界値の数とサンプルの複雑性の間の新しい関係を明らかにします。
次に、結果をコントラクトのメニューに拡張し、その擬似次元がメニュー サイズに比例して拡大することを示します。
第三に、アルゴリズムをオンライン学習設定に適応させます。ここでは、最適に近い有界契約を学習するには、多項式の数の型サンプルで十分であることを示します。
これまでの研究と組み合わせることで、この設定に対する専門家のアドバイスと盗賊のフィードバックとの間の正式な分離が確立されます。
要約(オリジナル)
Algorithmic contract design studies scenarios where a principal incentivizes an agent to exert effort on her behalf. In this work, we focus on settings where the agent’s type is drawn from an unknown distribution, and formalize an offline learning framework for learning near-optimal contracts from sample agent types. A central tool in our analysis is the notion of pseudo-dimension from statistical learning theory. Beyond its role in establishing upper bounds on the sample complexity, pseudo-dimension measures the intrinsic complexity of a class of contracts, offering a new perspective on the tradeoffs between simplicity and optimality in contract design. Our main results provide essentially optimal tradeoffs between pseudo-dimension and representation error (defined as the loss in principal’s utility) with respect to linear and bounded contracts. Using these tradeoffs, we derive sample- and time-efficient learning algorithms, and demonstrate their near-optimality by providing almost matching lower bounds on the sample complexity. Conversely, for unbounded contracts, we prove an impossibility result showing that no learning algorithm exists. Finally, we extend our techniques in three important ways. First, we provide refined pseudo-dimension and sample complexity guarantees for the combinatorial actions model, revealing a novel connection between the number of critical values and sample complexity. Second, we extend our results to menus of contracts, showing that their pseudo-dimension scales linearly with the menu size. Third, we adapt our algorithms to the online learning setting, where we show that, a polynomial number of type samples suffice to learn near-optimal bounded contracts. Combined with prior work, this establishes a formal separation between expert advice and bandit feedback for this setting.
arxiv情報
著者 | Paul Duetting,Michal Feldman,Tomasz Ponitka,Ermis Soumalias |
発行日 | 2025-01-24 13:13:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google