Realigned Softmax Warping for Deep Metric Learning

要約

ディープメトリック学習(Deep Metric Learning: DML)の損失関数は、伝統的に、同じクラスのデータ点が引き寄せられ、異なるクラスのデータ点が引き離されるように、埋め込み空間内の分離性とコンパクト性の力を制御することを目的としている。DMLの文脈では、ソフトマックス演算は通常、最適化のために距離を確率に正規化する。本論文では、ユークリッド領域内で動作し、ソフトマックスの下で埋め込み空間形成を支配する結合力を最大限に利用することを目的とした、新しいクラスの損失関数の可能性を提案する。これらのコンパクト性と分離性の力は、ワーピング関数を用いることで、制御された位置において、任意にブーストまたは緩和することができる。本研究では、ワーピング関数の簡単な例を提供し、それを用いて様々なメトリック学習ベンチマークにおいて競争力のある最先端の結果を達成する。

要約(オリジナル)

Deep Metric Learning (DML) loss functions traditionally aim to control the forces of separability and compactness within an embedding space so that the same class data points are pulled together and different class ones are pushed apart. Within the context of DML, a softmax operation will typically normalize distances into a probability for optimization, thus coupling all the push/pull forces together. This paper proposes a potential new class of loss functions that operate within a euclidean domain and aim to take full advantage of the coupled forces governing embedding space formation under a softmax. These forces of compactness and separability can be boosted or mitigated within controlled locations at will by using a warping function. In this work, we provide a simple example of a warping function and use it to achieve competitive, state-of-the-art results on various metric learning benchmarks.

arxiv情報

著者 Michael G. DeMoor,John J. Prevost
発行日 2024-09-03 09:45:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク