A Survey on Self-Supervised Representation Learning

要約

意味のある表現を学習することは、現代の機械学習の分野における多くのタスクの中心です。
最近、監督なしで画像表現を学習できる方法がたくさん導入されました。
これらの表現は、分類やオブ​​ジェクト検出などの下流タスクで使用できます。
これらの表現の品質は教師あり学習に近く、ラベル付き画像は必要ありません。
この調査論文は、統一された表記法でこれらの手法を包括的にレビューし、これらの手法の類似点と相違点を指摘し、これらの手法を相互に関連付けて設定する分類法を提案します。
さらに、私たちの調査は、文献で報告されている最新の実験結果をメタ研究の形で要約しています。
私たちの調査は、表現学習の分野に飛び込みたいと考えている研究者や実践者のための出発点として意図されています。

要約(オリジナル)

Learning meaningful representations is at the heart of many tasks in the field of modern machine learning. Recently, a lot of methods were introduced that allow learning of image representations without supervision. These representations can then be used in downstream tasks like classification or object detection. The quality of these representations is close to supervised learning, while no labeled images are needed. This survey paper provides a comprehensive review of these methods in a unified notation, points out similarities and differences of these methods, and proposes a taxonomy which sets these methods in relation to each other. Furthermore, our survey summarizes the most-recent experimental results reported in the literature in form of a meta-study. Our survey is intended as a starting point for researchers and practitioners who want to dive into the field of representation learning.

arxiv情報

著者 Tobias Uelwer,Jan Robine,Stefan Sylvius Wagner,Marc Höftmann,Eric Upschulte,Sebastian Konietzny,Maike Behrendt,Stefan Harmeling
発行日 2023-08-22 14:05:37+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, eess.IV, stat.ML パーマリンク