Learning Deep Optimal Embeddings with Sinkhorn Divergences

要約

ディープ メトリック ラーニング アルゴリズムは、効率的な埋め込み空間を学習して、入力データ間の類似関係を維持することを目的としています。
これらのアルゴリズムは、多数のタスクにわたって大幅なパフォーマンスの向上を達成しましたが、包括的な類似性制約を考慮して強化することもできませんでした。
したがって、埋め込み空間で次善のメトリックを学習します。
また、これまで;
ノイズの多いラベルの存在下でのパフォーマンスに関する研究はほとんどありません。
ここでは、各間の埋め込みポイントの基礎となる類似度分布を分離する (したがって、クラスごとの不一致を導入する) 斬新でありながら効果的なディープ クラスごとの不一致損失 (DCDL) 関数を設計することにより、弁別的な深い埋め込み空間を学習する懸念に対処します。
そして各クラス。
ノイズの存在下と非存在下での 3 つの標準画像分類データセットと 2 つのきめの細かい画像認識データセットにわたる私たちの経験的結果は、差別的な埋め込み空間を学習しながら、従来のアルゴリズムとともにそのようなクラスごとの類似関係を組み込む必要性を明確に示しています。

要約(オリジナル)

Deep Metric Learning algorithms aim to learn an efficient embedding space to preserve the similarity relationships among the input data. Whilst these algorithms have achieved significant performance gains across a wide plethora of tasks, they have also failed to consider and increase comprehensive similarity constraints; thus learning a sub-optimal metric in the embedding space. Moreover, up until now; there have been few studies with respect to their performance in the presence of noisy labels. Here, we address the concern of learning a discriminative deep embedding space by designing a novel, yet effective Deep Class-wise Discrepancy Loss (DCDL) function that segregates the underlying similarity distributions (thus introducing class-wise discrepancy) of the embedding points between each and every class. Our empirical results across three standard image classification datasets and two fine-grained image recognition datasets in the presence and absence of noise clearly demonstrate the need for incorporating such class-wise similarity relationships along with traditional algorithms while learning a discriminative embedding space.

arxiv情報

著者 Soumava Kumar Roy,Yan Han,Mehrtash Harandi,Lars Petersson
発行日 2022-09-14 07:54:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク