要約
グラフニューラルネットワーク(GNNS)は、リレーショナルデータのモデリングに優れていますが、定量化されていない不確実性のために、ハイステークスドメインで重要な課題に直面しています。
コンフォーマル予測(CP)は統計的カバレッジ保証を提供しますが、既存の方法は、グラフの不均一性と構造バイアスを説明できない過度に保守的な予測間隔を生成することがよくあります。
残存の再重み付けCPバリアントはこれらの制限のいくつかに対処していますが、トレーニングセットを再利用することにより、グラフトポロジ、クラスター固有の不確実性、およびリスクデータリークを無視します。
これらの問題に対処するために、予定可能な限界カバレッジ保証を備えた最小限の予測セットを生成するように設計されたフレームワークである残留再重弁GNN(RR-GNN)を提案します。
RR-GNNは、予測パフォーマンスを向上させるために3つの主要なイノベーションを導入します。
まず、グラフ構造のMondrian CPを使用して、トポロジー特性に基づいてノードまたはコミュニティにエッジを分割し、不均一性を反映するクラスター条件のカバレッジを確保します。
第二に、タスク固有の残差を推定するために保有キャリブレーションセットで二次GNNをトレーニングし、ノードまたはエッジの不確実性に応じて予測間隔を動的に調整することにより、残留適応性不適合スコアを使用します。
第三に、クロストレーニングプロトコルを採用します。クロストレーニングプロトコルは、グラフの依存関係を維持しながら情報の漏れを防ぐために、一次GNNと残差予測子の最適化を交互に採用します。
ノード分類、回帰、およびエッジ重量予測など、多様なタスク全体で15の実際のグラフでRR-GNNを検証します。
CPベースラインと比較して、RR-GNNは、カバレッジが失われることなく、最先端の方法よりも効率の向上を達成します。
要約(オリジナル)
Graph Neural Networks (GNNs) excel at modeling relational data but face significant challenges in high-stakes domains due to unquantified uncertainty. Conformal prediction (CP) offers statistical coverage guarantees, but existing methods often produce overly conservative prediction intervals that fail to account for graph heteroscedasticity and structural biases. While residual reweighting CP variants address some of these limitations, they neglect graph topology, cluster-specific uncertainties, and risk data leakage by reusing training sets. To address these issues, we propose Residual Reweighted GNN (RR-GNN), a framework designed to generate minimal prediction sets with provable marginal coverage guarantees. RR-GNN introduces three major innovations to enhance prediction performance. First, it employs Graph-Structured Mondrian CP to partition nodes or edges into communities based on topological features, ensuring cluster-conditional coverage that reflects heterogeneity. Second, it uses Residual-Adaptive Nonconformity Scores by training a secondary GNN on a held-out calibration set to estimate task-specific residuals, dynamically adjusting prediction intervals according to node or edge uncertainty. Third, it adopts a Cross-Training Protocol, which alternates the optimization of the primary GNN and the residual predictor to prevent information leakage while maintaining graph dependencies. We validate RR-GNN on 15 real-world graphs across diverse tasks, including node classification, regression, and edge weight prediction. Compared to CP baselines, RR-GNN achieves improved efficiency over state-of-the-art methods, with no loss of coverage.
arxiv情報
著者 | Zheng Zhang,Jie Bao,Zhixin Zhou,Nicolo Colombo,Lixin Cheng,Rui Luo |
発行日 | 2025-06-09 15:19:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google