Classification and Uncertainty Quantification of Corrupted Data using Semi-Supervised Autoencoders

要約

タイトル:半教師付きオートエンコーダを用いた汚れたデータの分類と不確実性評価
要約:
– 現実世界のデータには、ノイズ、遮蔽、ぼやけなどの汚染が不可避であり、パラメトリックおよびノンパラメトリックな分類器は重大な課題を抱えている。
– 汚染されたデータを分類し、不確実性を評価する確率的アプローチを提供する。
– 未汚染データで訓練された半教師付きオートエンコーダが基盤となっている。
– デコーディング部分を現実的なデータの生成モデルとして使用し、畳み込み、マスキング、および加算ガウスノイズで不完全な点を説明する。
– これは、基盤となる未汚染データの最適潜在空間アクティベーションの統計的推論タスクを構成する。
– 私たちはMetric Gaussian Variational Inference(MGVI)を使用して、この問題を近似的に解決する。
– オートエンコーダの潜在空間の監視により、統計的に推定された潜在空間のアクティベーションを使用して直接汚染されたデータを分類することができる。
– さらに、モデルの不確実性は、分類が正しいか誤っているかによって強く依存することを示し、分類の統計的な「嘘発見器」の基盤を提供する。
– それに関係なく、生成モデルが統計的に推定された潜在空間アクティベーションをデコードして未汚染のデータを最適に復元できることを示す。

要約(オリジナル)

Parametric and non-parametric classifiers often have to deal with real-world data, where corruptions like noise, occlusions, and blur are unavoidable – posing significant challenges. We present a probabilistic approach to classify strongly corrupted data and quantify uncertainty, despite the model only having been trained with uncorrupted data. A semi-supervised autoencoder trained on uncorrupted data is the underlying architecture. We use the decoding part as a generative model for realistic data and extend it by convolutions, masking, and additive Gaussian noise to describe imperfections. This constitutes a statistical inference task in terms of the optimal latent space activations of the underlying uncorrupted datum. We solve this problem approximately with Metric Gaussian Variational Inference (MGVI). The supervision of the autoencoder’s latent space allows us to classify corrupted data directly under uncertainty with the statistically inferred latent space activations. Furthermore, we demonstrate that the model uncertainty strongly depends on whether the classification is correct or wrong, setting a basis for a statistical ‘lie detector’ of the classification. Independent of that, we show that the generative model can optimally restore the uncorrupted datum by decoding the inferred latent space activations.

arxiv情報

著者 Philipp Joppich,Sebastian Dorn,Oliver De Candido,Wolfgang Utschick,Jakob Knollmüller
発行日 2023-04-20 20:03:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.LG パーマリンク