Fully Heteroscedastic Count Regression with Deep Double Poisson Networks

要約

正確で入力条件の不確実性表現が可能なニューラルネットワークは、実際のAIシステムに不可欠です。
ガウスネットワークの深いアンサンブルは、無制限のヘテロ脱脱流分散を介して柔軟に協調的な不確実性を表現する能力により、連続回帰に非常に効果的であることが証明されており、これにより、正確な認識論的不確実性の推定が可能になります。
ただし、多くの重要なアプリケーションにもかかわらず、カウント回帰のための類似のアプローチは存在しません。
このギャップに対処するために、ダブルポアソン分布のパラメーターを出力する新しいニューラル離散カウント回帰モデルであるディープダブルポアソンネットワーク(DDPN)を提案し、カウントデータの任意の高または低予測アレアティックの不確実性を可能にし、認識論的不確実性推定を改善します。
DDPNは、学習可能な損失の減衰を介してヘテロスケジックガウスモデルと同様の堅牢な回帰特性を示すことを正式化し、証明し、この動作を制御するための単純な損失の変更を導入します。
多様なデータセットでの実験は、DDPNが現在のベースラインを精度、キャリブレーション、および分散排出検出の検出よりも優れており、深いカウント回帰の新しい最先端の最先端を確立することを示しています。

要約(オリジナル)

Neural networks capable of accurate, input-conditional uncertainty representation are essential for real-world AI systems. Deep ensembles of Gaussian networks have proven highly effective for continuous regression due to their ability to flexibly represent aleatoric uncertainty via unrestricted heteroscedastic variance, which in turn enables accurate epistemic uncertainty estimation. However, no analogous approach exists for count regression, despite many important applications. To address this gap, we propose the Deep Double Poisson Network (DDPN), a novel neural discrete count regression model that outputs the parameters of the Double Poisson distribution, enabling arbitrarily high or low predictive aleatoric uncertainty for count data and improving epistemic uncertainty estimation when ensembled. We formalize and prove that DDPN exhibits robust regression properties similar to heteroscedastic Gaussian models via learnable loss attenuation, and introduce a simple loss modification to control this behavior. Experiments on diverse datasets demonstrate that DDPN outperforms current baselines in accuracy, calibration, and out-of-distribution detection, establishing a new state-of-the-art in deep count regression.

arxiv情報

著者 Spencer Young,Porter Jenkins,Longchao Da,Jeff Dotson,Hua Wei
発行日 2025-05-28 17:30:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク