BEARS Make Neuro-Symbolic Models Aware of their Reasoning Shortcuts

要約

記号知識 (安全性制約などの符号化) に準拠するニューロシンボリック (NeSy) 予測子は、推論ショートカット (RS) の影響を受ける可能性があります。これらは、意図しないセマンティクスを利用することで、記号知識と一致する概念を学習します。
RS は信頼性と一般化を損なうものであり、本稿で示すように、RS は予測された概念について過信している NeSy モデルに関連しています。
残念ながら、唯一信頼できる緩和戦略は、コンセプトに対するコストのかかる緻密な監視を収集することを必要とします。
RS を完全に回避しようとするのではなく、NeSy モデルが学習する概念の意味上の曖昧さを確実に認識できるようにすることで、ユーザーが低品質の概念を識別して不信感を持てるようにすることを提案します。
3 つの単純な要望から始めて、予測精度を損なうことなくモデルの概念レベルの信頼性を調整するアンサンブル手法であるベア (BE Aware of Reasoning Shortcuts) を導き出します。これにより、NeSy アーキテクチャが RS の影響を受ける概念について不確実になるようになります。
私たちは、クマがいくつかの最先端の NeSy モデルの RS 認識を向上させ、緩和目的で有益な高密度アノテーションの取得も容易にすることを経験的に示しています。

要約(オリジナル)

Neuro-Symbolic (NeSy) predictors that conform to symbolic knowledge – encoding, e.g., safety constraints – can be affected by Reasoning Shortcuts (RSs): They learn concepts consistent with the symbolic knowledge by exploiting unintended semantics. RSs compromise reliability and generalization and, as we show in this paper, they are linked to NeSy models being overconfident about the predicted concepts. Unfortunately, the only trustworthy mitigation strategy requires collecting costly dense supervision over the concepts. Rather than attempting to avoid RSs altogether, we propose to ensure NeSy models are aware of the semantic ambiguity of the concepts they learn, thus enabling their users to identify and distrust low-quality concepts. Starting from three simple desiderata, we derive bears (BE Aware of Reasoning Shortcuts), an ensembling technique that calibrates the model’s concept-level confidence without compromising prediction accuracy, thus encouraging NeSy architectures to be uncertain about concepts affected by RSs. We show empirically that bears improves RS-awareness of several state-of-the-art NeSy models, and also facilitates acquiring informative dense annotations for mitigation purposes.

arxiv情報

著者 Emanuele Marconato,Samuele Bortolotti,Emile van Krieken,Antonio Vergari,Andrea Passerini,Stefano Teso
発行日 2024-02-19 15:54:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク