Leave-One-Out Stable Conformal Prediction

要約

コンフォーマル予測(CP)は、分布のない予測不確実性の定量化のための重要なツールです。
しかし、主な課題は、特に複数の予測の場合、計算効率と予測精度のバランスをとることです。
サンプル分割なしでアルゴリズムの安定性を使用して完全なコンフォーマルをスピードアップする新しい方法である、休暇1-Out安定コンフォーマル予測(LOO-STABCP)を提案します。
Leave-one-Outの安定性を活用することにより、私たちの方法は、置換1の安定性に基づいて、既存のメソッドRO-STABCPと比較して、多数の予測要求を処理するのがはるかに高速です。
いくつかの一般的な機械学習ツールの安定性境界を導き出しました:正規化された損失最小化(RLM)と確率勾配降下(SGD)、およびカーネル法、ニューラルネットワーク、袋詰め。
私たちの方法は理論的に正当化され、合成データと現実世界のデータで優れた数値性能を示しています。
スクリーニング問題に方法を適用しました。この方法では、トレーニングデータの効果的な活用により、Splitのコンフォーマルに基づく最先端の方法と比較して、テスト力が改善されました。

要約(オリジナル)

Conformal prediction (CP) is an important tool for distribution-free predictive uncertainty quantification. Yet, a major challenge is to balance computational efficiency and prediction accuracy, particularly for multiple predictions. We propose Leave-One-Out Stable Conformal Prediction (LOO-StabCP), a novel method to speed up full conformal using algorithmic stability without sample splitting. By leveraging leave-one-out stability, our method is much faster in handling a large number of prediction requests compared to existing method RO-StabCP based on replace-one stability. We derived stability bounds for several popular machine learning tools: regularized loss minimization (RLM) and stochastic gradient descent (SGD), as well as kernel method, neural networks and bagging. Our method is theoretically justified and demonstrates superior numerical performance on synthetic and real-world data. We applied our method to a screening problem, where its effective exploitation of training data led to improved test power compared to state-of-the-art method based on split conformal.

arxiv情報

著者 Kiljae Lee,Yuan Zhang
発行日 2025-04-16 15:44:24+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, stat.ML パーマリンク