Confidence-Aware and Self-Supervised Image Anomaly Localisation

要約

普遍的な異常検出は、機械学習と医療画像分析において依然として難しい問題です。
たとえば、認識論的不確実性推定、自動エンコーディング モデルを通じて、または自己教師付きの方法で合成異常から、単一クラスの標準サンプルから期待される分布を学習することが可能です。
自己監視型異常検出アプローチのパフォーマンスは、既知の未知のクラスの例を使用して決定境界を形成する方法と比較すると、依然として劣っています。
ただし、外れ値露出法では、未知の未知のものを特定できないことがよくあります。
ここでは、特徴の局所性制約を緩めた確率的推論の近似をサポートする、改良された自己教師あり単一クラス トレーニング戦略について説明します。
ヒストグラム均等化画像による勾配のアップスケーリングが、最近提案された自己監視タスクに有益であることを示します。
私たちの方法はいくつかの分布外 (OOD) 検出モデルに統合されており、さまざまなベンチマーク データセットで私たちの方法が最先端の方法よりも優れているという証拠を示しています。

要約(オリジナル)

Universal anomaly detection still remains a challenging problem in machine learning and medical image analysis. It is possible to learn an expected distribution from a single class of normative samples, e.g., through epistemic uncertainty estimates, auto-encoding models, or from synthetic anomalies in a self-supervised way. The performance of self-supervised anomaly detection approaches is still inferior compared to methods that use examples from known unknown classes to shape the decision boundary. However, outlier exposure methods often do not identify unknown unknowns. Here we discuss an improved self-supervised single-class training strategy that supports the approximation of probabilistic inference with loosen feature locality constraints. We show that up-scaling of gradients with histogram-equalised images is beneficial for recently proposed self-supervision tasks. Our method is integrated into several out-of-distribution (OOD) detection models and we show evidence that our method outperforms the state-of-the-art on various benchmark datasets.

arxiv情報

著者 Johanna P. Müller,Matthew Baugh,Jeremy Tan,Mischa Dombrowski,Bernhard Kainz
発行日 2023-10-02 13:36:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク