Recourse under Model Multiplicity via Argumentative Ensembling (Technical Report)

要約

モデル多重性(MM)は、同じ予測タスクを解くために、複数の同等の性能を持つ機械学習モデルを学習できる場合に発生する。最近の研究では、MMの下で得られたモデルは、同じ入力に対して一貫性のない予測を行う可能性があることが示されている。このような事態が発生すると、モデルの予測によってマイナスの影響を受ける個人に対して、リコース推奨を提供するための一般的な手段である反事実的説明(CE)を提供することが困難になる。本論文では、recourse-aware ensemblingと名付けたこの問題を定式化し、この問題を解くための手法が満たすべきいくつかの望ましい性質を明らかにする。CEを提供するために様々な方法で拡張された既存のアンサンブル手法は、これらの性質を満たさないことを示す。次に、MMに対するCEの頑健性を保証するために、計算論証を導入し、カスタマイズ可能なユーザの嗜好にも対応する、論証的アンサンブルを導入する。論証的アンサンブルは、既存の手法に欠けている特性を満たし、精度に対するトレードオフは最小であることを理論的、実験的に示す。

要約(オリジナル)

Model Multiplicity (MM) arises when multiple, equally performing machine learning models can be trained to solve the same prediction task. Recent studies show that models obtained under MM may produce inconsistent predictions for the same input. When this occurs, it becomes challenging to provide counterfactual explanations (CEs), a common means for offering recourse recommendations to individuals negatively affected by models’ predictions. In this paper, we formalise this problem, which we name recourse-aware ensembling, and identify several desirable properties which methods for solving it should satisfy. We show that existing ensembling methods, naturally extended in different ways to provide CEs, fail to satisfy these properties. We then introduce argumentative ensembling, deploying computational argumentation to guarantee robustness of CEs to MM, while also accommodating customisable user preferences. We show theoretically and experimentally that argumentative ensembling satisfies properties which the existing methods lack, and that the trade-offs are minimal wrt accuracy.

arxiv情報

著者 Junqi Jiang,Antonio Rago,Francesco Leofante,Francesca Toni
発行日 2024-01-03 15:02:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.LG パーマリンク