要約
Global Average Pooling (GAP) は、特徴を集約するためのディープ メトリック ラーニング (DML) の一般的なコンポーネントです。
その有効性は、多くの場合、各特徴ベクトルを別個の意味論的エンティティとして扱い、GAP をそれらの組み合わせとして扱うことに起因します。
実証されているとはいえ、DML の重要な目標である、目に見えないクラスを表す一般化可能なエンティティを学習するというこのような説明のアルゴリズム的な意味は不明のままです。
これに対処するために、学習可能なプロトタイプの凸型の組み合わせとして GAP を定式化します。
次に、プロトタイプの学習が、サンプルのバッチに線形予測子を当てはめる再帰的プロセスとして表現できることを示します。
その観点に基づいて、反復ごとに素なクラスの 2 つのバッチを考慮し、一方のバッチのサンプルをもう一方のバッチに適合するプロトタイプで表現することで学習を正規化します。
4 つの一般的な DML ベンチマークでアプローチを検証します。
要約(オリジナル)
Global average pooling (GAP) is a popular component in deep metric learning (DML) for aggregating features. Its effectiveness is often attributed to treating each feature vector as a distinct semantic entity and GAP as a combination of them. Albeit substantiated, such an explanation’s algorithmic implications to learn generalizable entities to represent unseen classes, a crucial DML goal, remain unclear. To address this, we formulate GAP as a convex combination of learnable prototypes. We then show that the prototype learning can be expressed as a recursive process fitting a linear predictor to a batch of samples. Building on that perspective, we consider two batches of disjoint classes at each iteration and regularize the learning by expressing the samples of a batch with the prototypes that are fitted to the other batch. We validate our approach on 4 popular DML benchmarks.
arxiv情報
著者 | Yeti Z. Gurbuz,A. Aydin Alatan |
発行日 | 2023-07-24 13:03:17+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google