要約
ディープネットワークは、トレーニング分布から遠く離れた外れ値データでテストすると、自信を持って、しかし正しくない予測を行うことがよくあります。
深層生成モデル(DGM)によって計算された尤度は、ラベルのないデータを使用した外れ値検出の候補メトリックです。
それでも、以前の研究では、DGMの可能性は信頼性が低く、入力データへの単純な変換によって簡単にバイアスされる可能性があることが示されています。
ここでは、最も単純なDGMの中で、変分オートエンコーダー(VAE)を使用した外れ値の検出について説明します。
VAEの可能性を伴う主要なバイアスを改善するための新しい分析的およびアルゴリズム的アプローチを提案します。
私たちのバイアス補正はサンプル固有であり、計算コストが低く、さまざまなデコーダーの可視分布に対して簡単に計算できます。
次に、よく知られている画像前処理技術(コントラストストレッチ)がバイアス補正の有効性を拡張して、外れ値の検出をさらに改善することを示します。
私たちのアプローチは、9つのグレースケールおよび自然画像データセットで最先端の精度を実現し、最近の4つの競合するアプローチに比べて、速度とパフォーマンスの両方で大きな利点を示しています。
要約すると、VAEを使用してロバストな外れ値を検出するには、軽量の救済策で十分です。
要約(オリジナル)
Deep networks often make confident, yet, incorrect, predictions when tested with outlier data that is far removed from their training distributions. Likelihoods computed by deep generative models (DGMs) are a candidate metric for outlier detection with unlabeled data. Yet, previous studies have shown that DGM likelihoods are unreliable and can be easily biased by simple transformations to input data. Here, we examine outlier detection with variational autoencoders (VAEs), among the simplest of DGMs. We propose novel analytical and algorithmic approaches to ameliorate key biases with VAE likelihoods. Our bias corrections are sample-specific, computationally inexpensive, and readily computed for various decoder visible distributions. Next, we show that a well-known image pre-processing technique — contrast stretching — extends the effectiveness of bias correction to further improve outlier detection. Our approach achieves state-of-the-art accuracies with nine grayscale and natural image datasets, and demonstrates significant advantages — both with speed and performance — over four recent, competing approaches. In summary, lightweight remedies suffice to achieve robust outlier detection with VAEs.
arxiv情報
著者 | Kushal Chauhan,Barath Mohan U,Pradeep Shenoy,Manish Gupta,Devarajan Sridharan |
発行日 | 2022-07-19 12:52:19+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google