SafeAR: Towards Safer Algorithmic Recourse by Risk-Aware Policies

要約

金融やヘルスケアなどの重要な領域で機械学習 (ML) モデルの使用が増えるにつれ、ML モデルの決定によって悪影響を受ける人々に救済手段を提供する必要性がより重要になっています。
個人は、自分の状況を改善し、有利な決定を受けるために取るべき行動についての推奨事項を提供されるべきである。
一連の変更を推奨する逐次アルゴリズムによるこれまでの研究では、アクションの実行可能性に焦点を当て、機能変更の近接性を利用してアクションのコストを決定していました。
ただし、機能の変更の不確実性や賠償コストが平均より高くなるリスクは考慮されていません。
救済措置が(ある程度の確率で)最悪の状況を引き起こし、そこからの回復に非常に高いコストが必要になる場合は望ましくありません。
賠償責任を計算および評価する際には、リスクを組み込むことが不可欠です。
このようなリスクを考慮して計算されたリソースを、より安全なアルゴリズムによるリソース (SafeAR) と呼びます。
目的は、人々がリスク許容度に基づいて手段を選択できるようにすることです。
この研究では、既存の要望に応じたリソースがどのようにコスト高のリスクを回避できないかを議論し、示します。
コストの変動を考慮し、アルゴリズムによるリコース文献をリスクに敏感な強化学習と結び付けるリコースポリシーを計算する方法を紹介します。
また、リスクを簡潔に要約するために、金融文献から「バリュー・アット・リスク」および「条件付きバリュー・アット・リスク」という尺度を採用します。
私たちはこの手法を 2 つの現実世界のデータセットに適用し、リスク尺度およびリソースの要望 (疎性と近接性) を使用して、さまざまなリスク回避レベルの政策を比較します。

要約(オリジナル)

With the growing use of machine learning (ML) models in critical domains such as finance and healthcare, the need to offer recourse for those adversely affected by the decisions of ML models has become more important; individuals ought to be provided with recommendations on actions to take for improving their situation and thus receiving a favorable decision. Prior work on sequential algorithmic recourse — which recommends a series of changes — focuses on action feasibility and uses the proximity of feature changes to determine action costs. However, the uncertainties of feature changes and the risk of higher than average costs in recourse have not been considered. It is undesirable if a recourse could (with some probability) result in a worse situation from which recovery requires an extremely high cost. It is essential to incorporate risks when computing and evaluating recourse. We call the recourse computed with such risk considerations as Safer Algorithmic Recourse (SafeAR). The objective is to empower people to choose a recourse based on their risk tolerance. In this work, we discuss and show how existing recourse desiderata can fail to capture the risk of higher costs. We present a method to compute recourse policies that consider variability in cost and connect algorithmic recourse literature with risk-sensitive reinforcement learning. We also adopt measures ‘Value at Risk’ and ‘Conditional Value at Risk’ from the financial literature to summarize risk concisely. We apply our method to two real-world datasets and compare policies with different risk-aversion levels using risk measures and recourse desiderata (sparsity and proximity).

arxiv情報

著者 Haochen Wu,Shubham Sharma,Sunandita Patra,Sriram Gopalakrishnan
発行日 2023-12-15 15:05:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク