Learning Empirical Bregman Divergence for Uncertain Distance Representation

要約

タイトル:不確定な距離表現のための経験的ブレグマンダイバージェンスの学習
要約:
– ディープメトリック学習技術は、深層ネットワークを用いてサンプルの埋め込みを学習することによって、様々な教師あり・教師なし学習タスクでの視覚表現に使用されてきました。
– しかし、二つの埋め込み間の類似度関数として固定の距離メトリックを使用するクラシックなアプローチは、複雑なデータ分布を捉えるためにサブオプティマルなパフォーマンスを示す可能性があります。
– ブレグマン・ダイバージェンスは、様々な距離メトリックの測定値を一般化したものであり、ディープメトリック学習の多くの分野で生じます。
– 本論文では、まず、Bregmanダイバージェンスから深層メトリック学習ロスが生じる方法を示します。
– 次に、Bregmanダイバージェンスを基にした効果的な方法を導入し、これは、深層学習設定でBregmanダイバージェンスの下にある凸関数をパラメータ化することに基づいています。
– さらに、我々のアプローチが五つの人気のある公開データセットにおいて、他のSOTA深層メトリック学習方法に比べて特にパターン認識問題において効果的にパフォーマンスを発揮することを実験的に示しました。

要約(オリジナル)

Deep metric learning techniques have been used for visual representation in various supervised and unsupervised learning tasks through learning embeddings of samples with deep networks. However, classic approaches, which employ a fixed distance metric as a similarity function between two embeddings, may lead to suboptimal performance for capturing the complex data distribution. The Bregman divergence generalizes measures of various distance metrics and arises throughout many fields of deep metric learning. In this paper, we first show how deep metric learning loss can arise from the Bregman divergence. We then introduce a novel method for learning empirical Bregman divergence directly from data based on parameterizing the convex function underlying the Bregman divergence with a deep learning setting. We further experimentally show that our approach performs effectively on five popular public datasets compared to other SOTA deep metric learning methods, particularly for pattern recognition problems.

arxiv情報

著者 Zhiyuan Li,Ziru Liu,Anna Zou,Anca L. Ralescu
発行日 2023-04-16 04:16:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.CV, cs.IT, cs.LG, math.IT, stat.ML パーマリンク