Self-supervised Detransformation Autoencoder for Representation Learning in Open Set Recognition

要約

オープンセット認識(OSR)の目的は,既知のクラスを正確に分類しつつ,未知のサンプルを拒否できる分類器を学習することである.本論文では、OSR問題に対する自己教師法として、Detransformation Autoencoder (DTAE)を提案する。本手法は、入力データの変換に対して不変な表現を学習するものである。いくつかの標準的な画像データセットを用いた実験から、事前学習によりOSR課題におけるモデルの性能が大幅に向上することが示された。一方、提案する自己教師法は、未知クラスの検出と既知クラスの分類において大きな利得を達成する。さらに、DTAEはRotNetと比較して、より多くの対象クラス情報を含み、より少ない変換情報を持つ表現を得ることができることを解析により示した。

要約(オリジナル)

The objective of Open set recognition (OSR) is to learn a classifier that can reject the unknown samples while classifying the known classes accurately. In this paper, we propose a self-supervision method, Detransformation Autoencoder (DTAE), for the OSR problem. This proposed method engages in learning representations that are invariant to the transformations of the input data. Experiments on several standard image datasets indicate that the pre-training process significantly improves the model performance in the OSR tasks. Meanwhile, our proposed self-supervision method achieves significant gains in detecting the unknown class and classifying the known classes. Moreover, our analysis indicates that DTAE can yield representations that contain more target class information and less transformation information than RotNet.

arxiv情報

著者 Jingyun Jia,Philip K. Chan
発行日 2022-07-06 17:05:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク