Weakly-Supervised Residual Evidential Learning for Multi-Instance Uncertainty Estimation

要約

不確実性推定 (UE) は、予測の不確実性を定量化する効果的な手段として、特にリスクの高いシナリオにおいて、安全で信頼性の高い意思決定に不可欠です。
既存の UE スキームは通常、完全教師あり学習をサポートするために完全にラベル付けされたサンプルがあることを前提としています。
ただし、実際には、弱いインスタンス アノテーションのみを備えたマルチ インスタンス学習 (MIL) など、多くの UE タスクには、使用する十分にラベル付けされたデータがないことがよくあります。
このギャップを埋めるために、この論文では初めて、マルチインスタンス UE (MIUE) の弱く監視された問題に取り組み、新しいベースライン スキームであるマルチインスタンス残差証拠学習 (MIREL) を提案します。
特に、弱い監視のみを備えたきめの細かいインスタンス UE では、対称関数の基本定理を通じてマルチインスタンスの残差演算子を導出します。
この演算子の導出に基づいて、MIUE のバッグ レベルとインスタンス レベルで高次の予測分布を共同モデル化する MIREL をさらに提案します。
広範な実験により、私たちの MIREL は既存の MIL ネットワークの MIUE でのパフォーマンスを向上させることができるだけでなく、特にインスタンス レベルの UE タスクにおいて、代表的な UE メソッドを大幅に上回ることができることを経験的に示しています。

要約(オリジナル)

Uncertainty estimation (UE), as an effective means of quantifying predictive uncertainty, is crucial for safe and reliable decision-making, especially in high-risk scenarios. Existing UE schemes usually assume that there are completely-labeled samples to support fully-supervised learning. In practice, however, many UE tasks often have no sufficiently-labeled data to use, such as the Multiple Instance Learning (MIL) with only weak instance annotations. To bridge this gap, this paper, for the first time, addresses the weakly-supervised issue of Multi-Instance UE (MIUE) and proposes a new baseline scheme, Multi-Instance Residual Evidential Learning (MIREL). Particularly, at the fine-grained instance UE with only weak supervision, we derive a multi-instance residual operator through the Fundamental Theorem of Symmetric Functions. On this operator derivation, we further propose MIREL to jointly model the high-order predictive distribution at bag and instance levels for MIUE. Extensive experiments empirically demonstrate that our MIREL not only could often make existing MIL networks perform better in MIUE, but also could surpass representative UE methods by large margins, especially in instance-level UE tasks.

arxiv情報

著者 Pei Liu,Luping Ji
発行日 2024-05-07 15:31:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク