Learn to Categorize or Categorize to Learn? Self-Coding for Generalized Category Discovery

要約

テスト時に新しいカテゴリーを発見することを追求する中で、我々は、予め定義されたカテゴリーセットによって制限される従来の教師あり認識モデルの本質的な限界に直面している。テスト時のカテゴリー発見に向けて、自己教師あり学習やオープンワールド学習の領域で前進が見られる一方で、重要でありながら見落とされがちな疑問が残る。本論文では、最適化のレンズを通してカテゴリーを概念化し、それを明確に定義された問題に対する最適解と見なす。このユニークな概念化を利用し、テスト時に未知のカテゴリーを発見することができる、新規で効率的な自己教師付き手法を提案する。我々のアプローチの顕著な特徴は、個々のデータインスタンスに最小長のカテゴリーコードを割り当てることであり、これは実世界のデータセットに広く見られる暗黙のカテゴリー階層をカプセル化する。このメカニズムにより、カテゴリの粒度の制御が強化され、それにより我々のモデルは細かいカテゴリを巧みに扱うことができる。最先端のベンチマーク比較によって強化された実験的評価は、テスト時に未知のカテゴリを管理する上で我々のソリューションが有効であることを証明している。さらに、我々の提案を理論的基礎で補強し、その最適性の証明を提供する。コードはhttps://github.com/SarahRastegar/InfoSieve。

要約(オリジナル)

In the quest for unveiling novel categories at test time, we confront the inherent limitations of traditional supervised recognition models that are restricted by a predefined category set. While strides have been made in the realms of self-supervised and open-world learning towards test-time category discovery, a crucial yet often overlooked question persists: what exactly delineates a category? In this paper, we conceptualize a category through the lens of optimization, viewing it as an optimal solution to a well-defined problem. Harnessing this unique conceptualization, we propose a novel, efficient and self-supervised method capable of discovering previously unknown categories at test time. A salient feature of our approach is the assignment of minimum length category codes to individual data instances, which encapsulates the implicit category hierarchy prevalent in real-world datasets. This mechanism affords us enhanced control over category granularity, thereby equipping our model to handle fine-grained categories adeptly. Experimental evaluations, bolstered by state-of-the-art benchmark comparisons, testify to the efficacy of our solution in managing unknown categories at test time. Furthermore, we fortify our proposition with a theoretical foundation, providing proof of its optimality. Our code is available at https://github.com/SarahRastegar/InfoSieve.

arxiv情報

著者 Sarah Rastegar,Hazel Doughty,Cees G. M. Snoek
発行日 2023-11-06 14:00:11+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, I.4, math.IT パーマリンク