要約
テスト時に新しいカテゴリを明らかにしようとすると、事前定義されたカテゴリ セットによって制限される従来の教師あり認識モデルに固有の制限に直面します。
自己教師ありのオープンワールド学習の領域では、テスト時のカテゴリ発見に向けて進歩が見られましたが、重要でありながらも見落とされがちな疑問が依然として残っています。それは、カテゴリを正確に定義するものは何でしょうか?
このペーパーでは、明確に定義された問題に対する最適な解決策と見なして、最適化のレンズを通してカテゴリーを概念化します。
このユニークな概念化を利用して、テスト時にこれまで知られていなかったカテゴリを発見できる、新しく効率的で自己教師ありの方法を提案します。
私たちのアプローチの顕著な特徴は、個々のデータ インスタンスに最小長のカテゴリ コードを割り当て、現実世界のデータセットに広く普及している暗黙的なカテゴリ階層をカプセル化することです。
このメカニズムにより、カテゴリの粒度の制御が強化され、モデルが詳細なカテゴリを適切に処理できるようになります。
最先端のベンチマーク比較によって裏付けられた実験評価は、テスト時に未知のカテゴリを管理する際の当社のソリューションの有効性を証明しています。
さらに、理論的基礎によって私たちの命題を強化し、その最適性の証明を提供します。
私たちのコードは https://github.com/SarahRastegar/InfoSieve で入手できます。
要約(オリジナル)
In the quest for unveiling novel categories at test time, we confront the inherent limitations of traditional supervised recognition models that are restricted by a predefined category set. While strides have been made in the realms of self-supervised and open-world learning towards test-time category discovery, a crucial yet often overlooked question persists: what exactly delineates a category? In this paper, we conceptualize a category through the lens of optimization, viewing it as an optimal solution to a well-defined problem. Harnessing this unique conceptualization, we propose a novel, efficient and self-supervised method capable of discovering previously unknown categories at test time. A salient feature of our approach is the assignment of minimum length category codes to individual data instances, which encapsulates the implicit category hierarchy prevalent in real-world datasets. This mechanism affords us enhanced control over category granularity, thereby equipping our model to handle fine-grained categories adeptly. Experimental evaluations, bolstered by state-of-the-art benchmark comparisons, testify to the efficacy of our solution in managing unknown categories at test time. Furthermore, we fortify our proposition with a theoretical foundation, providing proof of its optimality. Our code is available at https://github.com/SarahRastegar/InfoSieve.
arxiv情報
著者 | Sarah Rastegar,Hazel Doughty,Cees G. M. Snoek |
発行日 | 2024-01-18 17:53:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google