DIsoN: Decentralized Isolation Networks for Out-of-Distribution Detection in Medical Imaging

要約

医療イメージングなどの安全性が批判的なドメインにおける機械学習(ML)モデルの安全な展開には、信頼できない予測を防ぐために、分散(OOD)検出として知られるトレーニング中に見られない特性を持つ入力を検出する必要があります。
展開後の効果的なOOD検出は、トレーニングデータへのアクセスから恩恵を受ける可能性があり、テストサンプルとトレーニングデータの分布を直接比較して違いを特定できます。
ただし、最先端のOOD検出方法は、展開後にトレーニングデータを破棄するか、テストサンプルとトレーニングデータが集中的に保存されていると想定しています。
これは、展開されたモデルを使用したトレーニングデータの配送は、トレーニングデータベースの規模と独自またはプライバシーの制約のために通常不可能であるためです。
バイナリ分類タスクを解決することにより、ターゲットテストサンプルをトレーニングデータから分離することの難しさを定量化するOOD検出フレームワークであるIsolation Networkを紹介します。
次に、分散型分離ネットワーク(DONON)を提案します。これにより、トレーニングと展開のリモート計算ノード間でモデルパラメーターのみを交換することにより、データ共有が不可能な場合にトレーニングとテストデータの比較が可能になります。
さらに、ターゲットサンプルを予測クラスのトレーニングデータと比較して、クラスの条件で名誉を拡張します。
12のood検出タスクにわたって、4つの医療画像データセット(皮膚科、胸部X線、乳房超音波、組織病理学)で名誉を評価します。
DONONは、データプリバシーを尊重しながら、既存の方法に対して好意的に機能します。
この分散型OOD検出フレームワークは、ML開発者がモデルとともに提供できる新しいタイプのサービスの方法を開きます。OOD検出サービスのトレーニングデータのリモートで安全な利用を提供します。
コードは、受け入れられると利用可能になります:*****

要約(オリジナル)

Safe deployment of machine learning (ML) models in safety-critical domains such as medical imaging requires detecting inputs with characteristics not seen during training, known as out-of-distribution (OOD) detection, to prevent unreliable predictions. Effective OOD detection after deployment could benefit from access to the training data, enabling direct comparison between test samples and the training data distribution to identify differences. State-of-the-art OOD detection methods, however, either discard training data after deployment or assume that test samples and training data are centrally stored together, an assumption that rarely holds in real-world settings. This is because shipping training data with the deployed model is usually impossible due to the size of training databases, as well as proprietary or privacy constraints. We introduce the Isolation Network, an OOD detection framework that quantifies the difficulty of separating a target test sample from the training data by solving a binary classification task. We then propose Decentralized Isolation Networks (DIsoN), which enables the comparison of training and test data when data-sharing is impossible, by exchanging only model parameters between the remote computational nodes of training and deployment. We further extend DIsoN with class-conditioning, comparing a target sample solely with training data of its predicted class. We evaluate DIsoN on four medical imaging datasets (dermatology, chest X-ray, breast ultrasound, histopathology) across 12 OOD detection tasks. DIsoN performs favorably against existing methods while respecting data-privacy. This decentralized OOD detection framework opens the way for a new type of service that ML developers could provide along with their models: providing remote, secure utilization of their training data for OOD detection services. Code will be available upon acceptance at: *****

arxiv情報

著者 Felix Wagner,Pramit Saha,Harry Anthony,J. Alison Noble,Konstantinos Kamnitsas
発行日 2025-06-10 17:52:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, I.2.0 パーマリンク