The Eyecandies Dataset for Unsupervised Multimodal Anomaly Detection and Localization

要約

教師なし異常の検出と位置特定のための新しい合成データセットである Eyecandies を紹介します。
プロシージャルに生成されたキャンディーの写真のようにリアルな画像は、複数の雷条件下で制御された環境でレンダリングされ、産業用コンベア シナリオで深度マップと法線マップも提供されます。
モデルのトレーニングと検証用に異常のないサンプルを利用できるようにしますが、正確なグラウンド トゥルース アノテーションを含む異常なインスタンスはテスト セットでのみ提供されます。
データセットはキャンディーの 10 クラスで構成され、それぞれが複雑なテクスチャ、自己閉塞、スペキュラリティなどのさまざまな課題を示しています。
さらに、手続き型レンダリング パイプラインの主要なパラメーターをランダムに描画することで、クラス内の大きな変動を実現します。これにより、写真のようにリアルな外観を持つ任意の数のインスタンスを作成できます。
同様に、異常がレンダリング グラフに挿入され、ピクセル単位の注釈が自動的に生成されるため、人間のバイアスや矛盾の可能性が克服されます。
このデータセットは、異常検出タスクを解決するための独自のアプローチの調査を促進する可能性があると考えています。
ほとんどの既存のデータセットでは提供されていないため、色、深度、および法線マップを組み合わせることによって。
実際、追加情報を活用することが実際に検出パフォーマンスの向上につながる可能性があることを示すために、深い畳み込みオートエンコーダーをトレーニングして入力のさまざまな組み合わせを再構築することによって得られた結果を示します。

要約(オリジナル)

We present Eyecandies, a novel synthetic dataset for unsupervised anomaly detection and localization. Photo-realistic images of procedurally generated candies are rendered in a controlled environment under multiple lightning conditions, also providing depth and normal maps in an industrial conveyor scenario. We make available anomaly-free samples for model training and validation, while anomalous instances with precise ground-truth annotations are provided only in the test set. The dataset comprises ten classes of candies, each showing different challenges, such as complex textures, self-occlusions and specularities. Furthermore, we achieve large intra-class variation by randomly drawing key parameters of a procedural rendering pipeline, which enables the creation of an arbitrary number of instances with photo-realistic appearance. Likewise, anomalies are injected into the rendering graph and pixel-wise annotations are automatically generated, overcoming human-biases and possible inconsistencies. We believe this dataset may encourage the exploration of original approaches to solve the anomaly detection task, e.g. by combining color, depth and normal maps, as they are not provided by most of the existing datasets. Indeed, in order to demonstrate how exploiting additional information may actually lead to higher detection performance, we show the results obtained by training a deep convolutional autoencoder to reconstruct different combinations of inputs.

arxiv情報

著者 Luca Bonfiglioli,Marco Toschi,Davide Silvestri,Nicola Fioraio,Daniele De Gregorio
発行日 2022-10-10 11:19:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク