Sourcerer: Sample-based Maximum Entropy Source Distribution Estimation

要約

科学モデリング アプリケーションでは、多くの場合、観測データセットと一致するパラメーターの分布を推定する必要があります。これは、ソース分布推定としても知られる推論タスクです。
ただし、多くの異なるソース分布がデータの一貫性のあるシミュレーションの同じ分布を生成する可能性があるため、この問題は不適切に設定されている可能性があります。
多くの同等に有効な情報源の中から原則に基づいた選択を行うために、最大のエントロピー分布をターゲットとする、つまり可能な限り多くの不確実性を保持することを優先するアプローチを提案します。
私たちの方法は純粋にサンプルベースであり、スライス-ワッサーシュタイン距離を利用してデータセットとシミュレーション間の不一致を測定するため、扱いが難しい尤度を持つシミュレーターに適しています。
いくつかのタスクでこの方法のベンチマークを行い、シミュレーションの忠実度を犠牲にすることなく、大幅に高いエントロピーでソース分布を回復できることを示します。
最後に、私たちのアプローチの有用性を実証するために、数千の測定値を含む実験データセットからホジキン・ハクスリー ニューロン モデルのパラメーターのソース分布を推測します。
要約すると、可能な限り不確実性を維持しながら、科学シミュレータパラメータの一意のソース分布を推測するための原則的なフレームワークを提案します。

要約(オリジナル)

Scientific modeling applications often require estimating a distribution of parameters consistent with a dataset of observations – an inference task also known as source distribution estimation. This problem can be ill-posed, however, since many different source distributions might produce the same distribution of data-consistent simulations. To make a principled choice among many equally valid sources, we propose an approach which targets the maximum entropy distribution, i.e., prioritizes retaining as much uncertainty as possible. Our method is purely sample-based – leveraging the Sliced-Wasserstein distance to measure the discrepancy between the dataset and simulations – and thus suitable for simulators with intractable likelihoods. We benchmark our method on several tasks, and show that it can recover source distributions with substantially higher entropy without sacrificing the fidelity of the simulations. Finally, to demonstrate the utility of our approach, we infer source distributions for parameters of the Hodgkin-Huxley neuron model from experimental datasets with thousands of measurements. In summary, we propose a principled framework for inferring unique source distributions of scientific simulator parameters while retaining as much uncertainty as possible.

arxiv情報

著者 Julius Vetter,Guy Moss,Cornelius Schröder,Richard Gao,Jakob H. Macke
発行日 2024-02-12 17:13:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク