要約
自己教師あり学習は、データ注釈を必要とせずに意味のある表現を学習できるため、近年人気のあるアプローチになっています。
この論文では、自己教師あり学習で広く適用されていない、画像をオーバーレイする新しい画像拡張技術を提案します。
このメソッドは、モデルが基礎となる情報を理解するためのより良いガイダンスを提供するように設計されており、より有用な表現が得られます。
提案された方法は、下流のタスクで堅実なパフォーマンスを示している広く使用されている自己教師あり学習方法である対照学習を使用して評価されます。
結果は、自己教師ありモデルのパフォーマンスを改善する上で提案された拡張技術の有効性を示しています。
要約(オリジナル)
Self-supervised learning has become a popular approach in recent years for its ability to learn meaningful representations without the need for data annotation. This paper proposes a novel image augmentation technique, overlaying images, which has not been widely applied in self-supervised learning. This method is designed to provide better guidance for the model to understand underlying information, resulting in more useful representations. The proposed method is evaluated using contrastive learning, a widely used self-supervised learning method that has shown solid performance in downstream tasks. The results demonstrate the effectiveness of the proposed augmentation technique in improving the performance of self-supervised models.
arxiv情報
著者 | Yinheng Li,Han Ding,Shaofei Wang |
発行日 | 2023-01-23 07:00:04+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google