要約
$n$ の専門家が未知のバイナリ イベントに関するプライベート シグナルを観察した後、そのイベントについての事後信念をプリンシパルに報告し、プリンシパルがレポートをイベントの 1 つの予測に集約するベイジアン予測集約モデルを検討します。
専門家の信号とイベントの結果は、プリンシパルには知られていない共同分布に従いますが、プリンシパルは i.i.d. にアクセスできます。
ディストリビューションからの「サンプル」。各サンプルは、専門家のレポート (シグナルではない) とイベントの実現のタプルです。
これらのサンプルを使用して、プリンシパルは $\varepsilon$-ほぼ最適なアグリゲーターを見つけることを目的としています。最適性は、集約された予測とイベントの実現の間の期待二乗距離の観点から測定されます。
この問題のサンプル複雑さは、任意の離散分布に対して少なくとも $\tilde \Omega(m^{n-2} / \varepsilon)$ であることを示します。ここで $m$ は各エキスパートの信号空間のサイズです。
このサンプルの複雑さは、専門家の数 $n$ が増えるにつれて指数関数的に増加します。
しかし、専門家の信号がイベントの実現を条件として独立している場合、サンプルの複雑さは $n$ に依存しない $\tilde O(1 / \varepsilon^2)$ まで大幅に軽減されます。
私たちの結果は、非バイナリ イベントに一般化できます。
結果の証明では、分布学習問題からの還元を使用し、予測集計が分布学習とほぼ同じくらい難しいという事実を明らかにしています。
要約(オリジナル)
We consider a Bayesian forecast aggregation model where $n$ experts, after observing private signals about an unknown binary event, report their posterior beliefs about the event to a principal, who then aggregates the reports into a single prediction for the event. The signals of the experts and the outcome of the event follow a joint distribution that is unknown to the principal, but the principal has access to i.i.d. ‘samples’ from the distribution, where each sample is a tuple of the experts’ reports (not signals) and the realization of the event. Using these samples, the principal aims to find an $\varepsilon$-approximately optimal aggregator, where optimality is measured in terms of the expected squared distance between the aggregated prediction and the realization of the event. We show that the sample complexity of this problem is at least $\tilde \Omega(m^{n-2} / \varepsilon)$ for arbitrary discrete distributions, where $m$ is the size of each expert’s signal space. This sample complexity grows exponentially in the number of experts $n$. But, if the experts’ signals are independent conditioned on the realization of the event, then the sample complexity is significantly reduced, to $\tilde O(1 / \varepsilon^2)$, which does not depend on $n$. Our results can be generalized to non-binary events. The proof of our results uses a reduction from the distribution learning problem and reveals the fact that forecast aggregation is almost as difficult as distribution learning.
arxiv情報
著者 | Yiling Chen,Tao Lin |
発行日 | 2023-06-01 16:45:10+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google