要約
ニューラルネットワークにおける予測不確実性を定量化する正しい方法は、依然として活発な議論のトピックである。特に、無知と不一致の視点を対立させる議論に照らし合わせると、最先端のエントロピー分解が、モデル、あるいは認識論的不確実性(EU)の意味のある表現につながるかどうかは不明である。我々は、どちらも有効であるが、異なる学習状況から生じるものであると主張することで、相反する視点を調和させることを目指している。特に、EUが不一致として現れるためには、ショートカットの存在が決定的であることを示す。
要約(オリジナル)
The correct way to quantify predictive uncertainty in neural networks remains a topic of active discussion. In particular, it is unclear whether the state-of-the art entropy decomposition leads to a meaningful representation of model, or epistemic, uncertainty (EU) in the light of a debate that pits ignorance against disagreement perspectives. We aim to reconcile the conflicting viewpoints by arguing that both are valid but arise from different learning situations. Notably, we show that the presence of shortcuts is decisive for EU manifesting as disagreement.
arxiv情報
著者 | Lisa Wimmer,Bernd Bischl,Ludwig Bothmann |
発行日 | 2025-04-04 14:22:46+00:00 |
arxivサイト | arxiv_id(pdf) |