Learning Empirical Bregman Divergence for Uncertain Distance Representation

要約

ディープメトリック学習技術は、ディープネットワークによるサンプルの埋め込み学習を通じて、様々な教師あり・教師なし学習タスクにおける視覚表現に利用されてきた。しかし、2つの埋め込み間の類似性関数として固定距離メトリックを採用する古典的なアプローチは、複雑なデータ分布を捉えるために最適でない性能を導く可能性がある。ブレグマンダイバージェンスは、様々な距離メトリックの尺度を一般化し、ディープメトリック学習の多くの分野を通して発生する。本論文では、まず、ブレグマンダイバージェンスから深層メトリック学習の損失がどのように生じるかを明らかにする。次に、ブレグマンダイバージェンスの基礎となる凸関数を深層学習の設定でパラメータ化することに基づき、データから直接経験的なブレグマンダイバージェンスを学習する新しい方法を紹介する。さらに、本アプローチが、他のSOTA深層メトリック学習法と比較して、特にパターン認識問題において、5つの一般的な公共データセットで効果的に動作することを実験的に示す。

要約(オリジナル)

Deep metric learning techniques have been used for visual representation in various supervised and unsupervised learning tasks through learning embeddings of samples with deep networks. However, classic approaches, which employ a fixed distance metric as a similarity function between two embeddings, may lead to suboptimal performance for capturing the complex data distribution. The Bregman divergence generalizes measures of various distance metrics and arises throughout many fields of deep metric learning. In this paper, we first show how deep metric learning loss can arise from the Bregman divergence. We then introduce a novel method for learning empirical Bregman divergence directly from data based on parameterizing the convex function underlying the Bregman divergence with a deep learning setting. We further experimentally show that our approach performs effectively on five popular public datasets compared to other SOTA deep metric learning methods, particularly for pattern recognition problems.

arxiv情報

著者 Zhiyuan Li,Ziru Liu,Anna Zou,Anca L. Ralescu
発行日 2023-05-15 16:38:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, math.IT, stat.ML パーマリンク