要約
近年の対比学習は目覚しい成果を上げている。しかし、大半のアプローチはクローズドワールドの設定に限定されている。本論文では、新しいクラスからラベル付けされていないサンプルが自然に出現するオープンワールドの設定を利用することで、表現学習の展望を豊かにする。このギャップを埋めるために、我々は新しい学習フレームワークであるオープンワールド対照学習(OpenCon)を導入する。OpenConは、既知のクラスと新規のクラスの両方に対してコンパクトな表現を学習するという課題に取り組み、その過程で新規性の発見を促進する。我々は、挑戦的なベンチマークデータセットにおいてOpenConの有効性を実証し、競争力のある性能を確立した。ImageNetデータセットにおいて、OpenConは新規クラスと全体の分類精度でそれぞれ11.9%と7.4%と、現在の最良の手法を大幅に上回った。我々の研究が、この重要な問題に取り組むための今後の研究の新しい扉を開くことを期待している。
要約(オリジナル)
Recent advance in contrastive learning has shown remarkable performance. However, the vast majority of approaches are limited to the closed-world setting. In this paper, we enrich the landscape of representation learning by tapping into an open-world setting, where unlabeled samples from novel classes can naturally emerge in the wild. To bridge the gap, we introduce a new learning framework, open-world contrastive learning (OpenCon). OpenCon tackles the challenges of learning compact representations for both known and novel classes, and facilitates novelty discovery along the way. We demonstrate the effectiveness of OpenCon on challenging benchmark datasets and establish competitive performance. On the ImageNet dataset, OpenCon significantly outperforms the current best method by 11.9% and 7.4% on novel and overall classification accuracy, respectively. We hope that our work will open up new doors for future work to tackle this important problem.
arxiv情報
著者 | Yiyou Sun,Yixuan Li |
発行日 | 2022-08-04 16:48:02+00:00 |
arxivサイト | arxiv_id(pdf) |