Self-Supervised Siamese Autoencoders

要約

完全に監視されたモデルとは対照的に、自己教師の表現学習は、ラベルを付けるためにデータのほんの一部のみを必要とし、多くの場合、同じまたはさらに高い下流のパフォーマンスを達成します。
目標は、自己監視されたタスクで深いニューラルネットワークを事前に訓練し、その後生の入力データから意味のある機能を抽出できるようにすることです。
以前は、自動エンコーダーとシャムネットワークは、画像分類などのタスクの特徴抽出器として首尾よく採用されていました。
ただし、どちらにも個々の欠点と利点があります。
この論文では、Sidae(Siamese Denoising autoencoder)と呼ばれる新しい方法を提案することにより、それらの相補的強度を組み合わせます。
画像分類のダウンストリームタスクを使用して、モデルが複数のデータセットとシナリオにまたがる2つの自己監視ベースラインを上回ることを示します。
重要なことに、これには、少量のラベル付きデータのみが利用可能な条件が含まれます。
経験的には、シャムのコンポーネントはより影響を与えますが、それでもパフォーマンスを改善するために除去自動エンコーダーが必要です。

要約(オリジナル)

In contrast to fully-supervised models, self-supervised representation learning only needs a fraction of data to be labeled and often achieves the same or even higher downstream performance. The goal is to pre-train deep neural networks on a self-supervised task, making them able to extract meaningful features from raw input data afterwards. Previously, autoencoders and Siamese networks have been successfully employed as feature extractors for tasks such as image classification. However, both have their individual shortcomings and benefits. In this paper, we combine their complementary strengths by proposing a new method called SidAE (Siamese denoising autoencoder). Using an image classification downstream task, we show that our model outperforms two self-supervised baselines across multiple data sets and scenarios. Crucially, this includes conditions in which only a small amount of labeled data is available. Empirically, the Siamese component has more impact, but the denoising autoencoder is nevertheless necessary to improve performance.

arxiv情報

著者 Friederike Baier,Sebastian Mair,Samuel G. Fadel
発行日 2025-04-08 14:03:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG, stat.ML パーマリンク