Deep Evidential Learning for Bayesian Quantile Regression

要約

不確実性を定量化する従来の方法は計算コストがかかるため、単一の決定論的なフォワードパス モデルから正確な不確実性を推定することが望ましい。
ただし、シングルフォワードパスモデルは推論中に重みをサンプリングせず、ガウス分布であると仮定するなど、ターゲット分布についての仮定を行うことが多いため、これは困難です。
これは、平均と標準偏差がターゲットの分布を正確にモデル化するのに不十分な回帰タスクでは制限的になる可能性があります。
この論文では、ガウス仮定なしで連続ターゲット分布の分位数を推定できる深いベイジアン分位数回帰モデルを提案します。
提案された方法は証拠学習に基づいており、これによりモデルは単一の決定論的なフォワードパス モデルで偶然的および認識的不確実性を捉えることができます。
これにより、この方法が効率的になり、大規模なモデルやデータセットに拡張可能になります。
提案された方法が、非ガウス分布での校正された不確実性、偶然および認識の不確実性の解きほぐし、および分布外のサンプルに対するロバスト性を達成することを実証します。

要約(オリジナル)

It is desirable to have accurate uncertainty estimation from a single deterministic forward-pass model, as traditional methods for uncertainty quantification are computationally expensive. However, this is difficult because single forward-pass models do not sample weights during inference and often make assumptions about the target distribution, such as assuming it is Gaussian. This can be restrictive in regression tasks, where the mean and standard deviation are inadequate to model the target distribution accurately. This paper proposes a deep Bayesian quantile regression model that can estimate the quantiles of a continuous target distribution without the Gaussian assumption. The proposed method is based on evidential learning, which allows the model to capture aleatoric and epistemic uncertainty with a single deterministic forward-pass model. This makes the method efficient and scalable to large models and datasets. We demonstrate that the proposed method achieves calibrated uncertainties on non-Gaussian distributions, disentanglement of aleatoric and epistemic uncertainty, and robustness to out-of-distribution samples.

arxiv情報

著者 Frederik Boe Hüttel,Filipe Rodrigues,Francisco Câmara Pereira
発行日 2023-08-21 11:42:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, stat.ML パーマリンク