要約
自律システムおよび半自律システムは、意思決定を改善するために深層学習モデルを使用しています。
ただし、深層分類器は誤った予測に自信を持ちすぎる可能性があり、特に安全性が重要な領域では大きな問題になります。
本研究では、現実世界のリスクを認識した分類システムを開発するための 3 つの基本的な要望を紹介します。
以前に提案された証拠深層学習 (EDL) を拡張して、これらの原則と EDL の運用属性の間の統一性を実証します。
次に、不確実性とリスクが内在する場合に、自律エージェントが構造化された意思決定中に裁量権を行使できるように EDL を強化します。
私たちは、これらの理論的革新を実証するために、経験的シナリオを厳密に検討します。
既存のリスクを意識した分類器とは対照的に、私たちが提案する方法論は一貫して優れたパフォーマンスを示し、リスクを意識した分類戦略における変革の可能性を強調しています。
要約(オリジナル)
Autonomous and semi-autonomous systems are using deep learning models to improve decision-making. However, deep classifiers can be overly confident in their incorrect predictions, a major issue especially in safety-critical domains. The present study introduces three foundational desiderata for developing real-world risk-aware classification systems. Expanding upon the previously proposed Evidential Deep Learning (EDL), we demonstrate the unity between these principles and EDL’s operational attributes. We then augment EDL empowering autonomous agents to exercise discretion during structured decision-making when uncertainty and risks are inherent. We rigorously examine empirical scenarios to substantiate these theoretical innovations. In contrast to existing risk-aware classifiers, our proposed methodologies consistently exhibit superior performance, underscoring their transformative potential in risk-conscious classification strategies.
arxiv情報
著者 | Murat Sensoy,Lance M. Kaplan,Simon Julier,Maryam Saleki,Federico Cerutti |
発行日 | 2024-12-04 15:20:12+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google