要約
グラフ ニューラル ネットワーク (GNN) は、印象的な経験的パフォーマンスを示した強力なブラック ボックス モデルです。
ただし、何らかの形で不確実性を定量化しないと、リスクの高いシナリオでそのようなモデルを信頼することが困難になる可能性があります。
共形予測はこの問題に対処することを目的としていますが、その有効性には交換可能性の仮定が必要であり、そのため静的グラフや変換レジームへの適用が制限されています。
私たちは、既存の静的 GNN が交換可能プロパティを埋め込んだ動的グラフを出力できるようにする展開を使用することを提案します。
これを使用して、変換的および半帰納的領域の両方で、共形予測の有効性を動的 GNN に拡張します。
このような場合に有効な等角予測の理論的保証を提供し、シミュレーション データセットと実際のデータセットの両方で、標準 GNN アーキテクチャに対する展開 GNN の経験的妥当性とパフォーマンスの向上を実証します。
要約(オリジナル)
Graph neural networks (GNNs) are powerful black-box models which have shown impressive empirical performance. However, without any form of uncertainty quantification, it can be difficult to trust such models in high-risk scenarios. Conformal prediction aims to address this problem, however, an assumption of exchangeability is required for its validity which has limited its applicability to static graphs and transductive regimes. We propose to use unfolding, which allows any existing static GNN to output a dynamic graph embedding with exchangeability properties. Using this, we extend the validity of conformal prediction to dynamic GNNs in both transductive and semi-inductive regimes. We provide a theoretical guarantee of valid conformal prediction in these cases and demonstrate the empirical validity, as well as the performance gains, of unfolded GNNs against standard GNN architectures on both simulated and real datasets.
arxiv情報
著者 | Ed Davis,Ian Gallagher,Daniel John Lawson,Patrick Rubin-Delanchy |
発行日 | 2024-05-29 16:07:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google