要約
機械学習 (ML) が広く採用されるにつれ、実務者は、これらのシステムが被るリスクを定量化して制御する手段をますます求めています。
この課題は、ブラック ボックス最適化やアクティブ ラーニングなど、ML システムが独自のデータを収集する自律性を持っている場合に特に顕著であり、そのアクションによりデータ分布に連続的なフィードバック ループのシフトが引き起こされます。
等角予測は、不確実性とリスクの定量化に対する有望なアプローチとして浮上していますが、以前のバリアントの妥当性保証では、データ分布に関する何らかの形の「準交換可能性」が想定されており、それによって多くの種類の逐次シフトが除外されていました。
この論文では、最も一般的なケースで計算するのは非常に非現実的ですが、理論的には共形予測が交換可能または準交換可能のものだけでなく \textit{any} 結合データ分布にも拡張できることを証明します。
実際の応用のために、あらゆるデータ分布に対する特定の等角アルゴリズムを導出する手順の概要を説明し、この手順を使用して、ML エージェントによって引き起こされる一連の共変量シフトに対する扱いやすいアルゴリズムを導出します。
提案されたアルゴリズムを合成ブラックボックス最適化と能動学習タスクに関して経験的に評価します。
要約(オリジナル)
As machine learning (ML) gains widespread adoption, practitioners are increasingly seeking means to quantify and control the risk these systems incur. This challenge is especially salient when ML systems have autonomy to collect their own data, such as in black-box optimization and active learning, where their actions induce sequential feedback-loop shifts in the data distribution. Conformal prediction has emerged as a promising approach to uncertainty and risk quantification, but prior variants’ validity guarantees have assumed some form of “quasi-exchangeability” on the data distribution, thereby excluding many types of sequential shifts. In this paper we prove that conformal prediction can theoretically be extended to \textit{any} joint data distribution, not just exchangeable or quasi-exchangeable ones, although it is exceedingly impractical to compute in the most general case. For practical applications, we outline a procedure for deriving specific conformal algorithms for any data distribution, and we use this procedure to derive tractable algorithms for a series of ML-agent-induced covariate shifts. We evaluate the proposed algorithms empirically on synthetic black-box optimization and active learning tasks.
arxiv情報
著者 | Drew Prinster,Samuel Stanton,Anqi Liu,Suchi Saria |
発行日 | 2024-05-23 17:34:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google