要約
標準的な分類タスクとは対照的に、戦略的分類には、有利な予測を受け取るためにエージェントが戦略的に特徴を変更することが含まれます。
たとえば、信用スコアに基づいてローンの承認を決定する分類器がある場合、申請者は分類器を欺くためにクレジット カードを開いたり閉じたりする可能性があります。
学習目標は、戦略的操作に対して堅牢な分類器を見つけることです。
いつ、何が知られているかに基づいて、さまざまな設定が戦略的分類において検討されてきました。
この研究では、戦略的分類と標準学習の間の学習可能性のギャップという基本的な問題に取り組むことに焦点を当てています。
私たちは本質的に、学習可能なクラスは戦略的にも学習可能であることを示します。最初に、操作構造 (操作グラフ $G^\star$ によってモデル化される) が既知であり、学習者が訓練時間中にアクセスできる、完全に有益な設定を検討します。
操作前のデータと操作後のデータの両方。
ほぼ厳密なサンプルの複雑さとリグレス限界を提供し、以前の結果に比べて大幅な改善を提供します。
次に、2 つの自然なタイプの不確実性を導入することで、完全に情報を提供する設定を緩和します。
まず、Ahmadi et al に続きます。
(2023) では、学習者が操作後のデータのみにアクセスできる設定を検討します。
私たちはAhmadiらの結果を改良しました。
(2023) と、それらによって設定された間違いの上限と下限の間のギャップを埋めます。
完全に情報を提供する設定の 2 番目の緩和により、操作構造に不確実性が導入されます。
つまり、操作グラフは不明ですが、既知のクラスのグラフに属していると仮定します。
さまざまな未知の操作グラフ設定における学習の複雑さについて、ほぼ厳密な境界を提供します。
特に、この設定でのアルゴリズムは独立して興味があり、マルチラベル学習などの他の問題に適用できます。
要約(オリジナル)
In contrast with standard classification tasks, strategic classification involves agents strategically modifying their features in an effort to receive favorable predictions. For instance, given a classifier determining loan approval based on credit scores, applicants may open or close their credit cards to fool the classifier. The learning goal is to find a classifier robust against strategic manipulations. Various settings, based on what and when information is known, have been explored in strategic classification. In this work, we focus on addressing a fundamental question: the learnability gaps between strategic classification and standard learning. We essentially show that any learnable class is also strategically learnable: we first consider a fully informative setting, where the manipulation structure (which is modeled by a manipulation graph $G^\star$) is known and during training time the learner has access to both the pre-manipulation data and post-manipulation data. We provide nearly tight sample complexity and regret bounds, offering significant improvements over prior results. Then, we relax the fully informative setting by introducing two natural types of uncertainty. First, following Ahmadi et al. (2023), we consider the setting in which the learner only has access to the post-manipulation data. We improve the results of Ahmadi et al. (2023) and close the gap between mistake upper bound and lower bound raised by them. Our second relaxation of the fully informative setting introduces uncertainty to the manipulation structure. That is, we assume that the manipulation graph is unknown but belongs to a known class of graphs. We provide nearly tight bounds on the learning complexity in various unknown manipulation graph settings. Notably, our algorithm in this setting is of independent interest and can be applied to other problems such as multi-label learning.
arxiv情報
著者 | Lee Cohen,Yishay Mansour,Shay Moran,Han Shao |
発行日 | 2024-02-29 16:09:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google