要約
等角予測は、すでにトレーニングされたモデルの後処理ステップとして簡単に適用できるため、機械学習における厳密な不確実性の定量化を実現するための一般的なパラダイムとして浮上しています。
この論文では、コンフォーマル予測をフェデレーテッド ラーニング設定に拡張します。
私たちが直面している主な課題は、クライアント間でのデータの異質性です。これは、等角予測に必要な交換可能性の基本原則に違反しています。
私たちは、FL 設定により適した部分交換可能性の弱い概念を提案し、それを使用して Federated Conformal Prediction (FCP) フレームワークを開発します。
私たちは、FCP がいくつかのコンピューター ビジョンおよび医療画像データセットに対して厳密な理論的保証と優れた実証的パフォーマンスを享受していることを示します。
私たちの結果は、分散された異種混合環境において意味のある不確実性の定量化を組み込む実用的なアプローチを示しています。
実験で使用したコードは https://github.com/clu5/federated-conformal で提供されています。
要約(オリジナル)
Conformal prediction is emerging as a popular paradigm for providing rigorous uncertainty quantification in machine learning since it can be easily applied as a post-processing step to already trained models. In this paper, we extend conformal prediction to the federated learning setting. The main challenge we face is data heterogeneity across the clients – this violates the fundamental tenet of exchangeability required for conformal prediction. We propose a weaker notion of partial exchangeability, better suited to the FL setting, and use it to develop the Federated Conformal Prediction (FCP) framework. We show FCP enjoys rigorous theoretical guarantees and excellent empirical performance on several computer vision and medical imaging datasets. Our results demonstrate a practical approach to incorporating meaningful uncertainty quantification in distributed and heterogeneous environments. We provide code used in our experiments https://github.com/clu5/federated-conformal.
arxiv情報
著者 | Charles Lu,Yaodong Yu,Sai Praneeth Karimireddy,Michael I. Jordan,Ramesh Raskar |
発行日 | 2023-06-01 17:30:15+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google