Open-Set Likelihood Maximization for Few-Shot Learning

要約

Few-Shot Open-Set Recognition (FSOSR) 問題に取り組みます。つまり、既知のクラスに属さないインスタンスを同時に検出しながら、ラベル付けされたサンプルがわずかしかないクラスのセット間でインスタンスを分類します。
推論時にラベル付けされていないクエリ インスタンスを利用する、一般的な変換設定を調べます。
既存の伝達的手法がオープン セット シナリオで十分に機能しないという観察に動機付けられて、潜在的な外れ値の影響を軽減する潜在スコアが通常のパラメトリック モデルと一緒に導入される最尤原理の一般化を提案します。
私たちの定式化には、サポートセットからの監督制約と、クエリセットでの自信過剰な予測を思いとどまらせる追加のペナルティが組み込まれています。
ブロック座標降下を進め、潜在スコアとパラメトリック モデルを交互に最適化することで、相互に利益を得ることができます。
得られた定式化を \textit{Open-Set Likelihood Optimization} (OSLO) と呼びます。
OSLO は解釈可能で、完全にモジュール化されています。
事前にトレーニングされたモデルの上にシームレスに適用できます。
広範な実験を通じて、オープンセット認識の両方の側面、つまりインライア分類とアウトライア検出で、私たちの方法が既存の帰納的および伝達的方法を凌駕することを示します。

要約(オリジナル)

We tackle the Few-Shot Open-Set Recognition (FSOSR) problem, i.e. classifying instances among a set of classes for which we only have a few labeled samples, while simultaneously detecting instances that do not belong to any known class. We explore the popular transductive setting, which leverages the unlabelled query instances at inference. Motivated by the observation that existing transductive methods perform poorly in open-set scenarios, we propose a generalization of the maximum likelihood principle, in which latent scores down-weighing the influence of potential outliers are introduced alongside the usual parametric model. Our formulation embeds supervision constraints from the support set and additional penalties discouraging overconfident predictions on the query set. We proceed with a block-coordinate descent, with the latent scores and parametric model co-optimized alternately, thereby benefiting from each other. We call our resulting formulation \textit{Open-Set Likelihood Optimization} (OSLO). OSLO is interpretable and fully modular; it can be applied on top of any pre-trained model seamlessly. Through extensive experiments, we show that our method surpasses existing inductive and transductive methods on both aspects of open-set recognition, namely inlier classification and outlier detection.

arxiv情報

著者 Malik Boudiaf,Etienne Bennequin,Myriam Tami,Antoine Toubhans,Pablo Piantanida,Céline Hudelot,Ismail Ben Ayed
発行日 2023-01-20 01:56:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク