要約
科学モデリング アプリケーションでは、多くの場合、観測データセットと一致するパラメーターの分布を推定する必要があります。これは、ソース分布推定としても知られる推論タスクです。
ただし、多くの異なるソース分布がデータの一貫性のあるシミュレーションの同じ分布を生成する可能性があるため、この問題は不適切に設定されている可能性があります。
多くの同等に有効な情報源の中から原則に基づいた選択を行うために、最大のエントロピー分布をターゲットとする、つまり可能な限り多くの不確実性を保持することを優先するアプローチを提案します。
私たちの方法は純粋にサンプルベースであり、スライス-ワッサーシュタイン距離を利用してデータセットとシミュレーション間の不一致を測定するため、扱いが難しい尤度を持つシミュレーターに適しています。
いくつかのタスクでこの方法のベンチマークを行い、シミュレーションの忠実度を犠牲にすることなく、最近の音源推定方法よりも大幅に高いエントロピーで音源分布を回復できることを示します。
最後に、私たちのアプローチの有用性を実証するために、数千の単一ニューロン測定を含む実験データセットからホジキン・ハクスリーモデルのパラメーターのソース分布を推測します。
要約すると、可能な限り不確実性を維持しながら科学シミュレータパラメータのソース分布を推測するための原則に基づいた方法を提案します。
要約(オリジナル)
Scientific modeling applications often require estimating a distribution of parameters consistent with a dataset of observations – an inference task also known as source distribution estimation. This problem can be ill-posed, however, since many different source distributions might produce the same distribution of data-consistent simulations. To make a principled choice among many equally valid sources, we propose an approach which targets the maximum entropy distribution, i.e., prioritizes retaining as much uncertainty as possible. Our method is purely sample-based – leveraging the Sliced-Wasserstein distance to measure the discrepancy between the dataset and simulations – and thus suitable for simulators with intractable likelihoods. We benchmark our method on several tasks, and show that it can recover source distributions with substantially higher entropy than recent source estimation methods, without sacrificing the fidelity of the simulations. Finally, to demonstrate the utility of our approach, we infer source distributions for parameters of the Hodgkin-Huxley model from experimental datasets with thousands of single-neuron measurements. In summary, we propose a principled method for inferring source distributions of scientific simulator parameters while retaining as much uncertainty as possible.
arxiv情報
著者 | Julius Vetter,Guy Moss,Cornelius Schröder,Richard Gao,Jakob H. Macke |
発行日 | 2024-05-15 14:32:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google