Deep Metric Learning with Chance Constraints

要約

ディープ メトリック ラーニング (DML) は、埋め込みイメージ内のクラス内/クラス間のペアワイズ近接違反の経験的予想損失を最小限に抑えることを目的としています。
DML を有限チャンス制約の実行可能性問題に関連付けます。
プロキシベースの DML の最小化が特定の確率制約を満たし、プロキシベースのメソッドの最悪の場合の一般化パフォーマンスが、対応するクラスのドメイン全体をカバーするクラス プロキシの周りの最小のボールの半径によって特徴付けられることを示します。
クラスごとに複数のプロキシを提案すると、パフォーマンスが向上します。
スケーラブルなアルゴリズムを提供し、より多くのプロキシを活用するために、プロキシベースの DML インスタンスの最小化によって暗示された可能性制約を考慮し、そのような制約の交点で実行可能な点を見つけることとして DML を再定式化します。
反復予測。
簡単に言えば、正規化されたプロキシベースの損失を繰り返しトレーニングし、意図的に選択された新しいサンプルの埋め込みでプロキシを再初期化します。
広く受け入れられている損失でこの方法を適用し、画像検索のための 4 つの一般的なベンチマーク データセットで評価します。
最先端技術を凌駕する当社の方法は、適用される損失のパフォーマンスを一貫して改善します。
コードは https://github.com/yetigurbuz/ccp-dml で入手できます。

要約(オリジナル)

Deep metric learning (DML) aims to minimize empirical expected loss of the pairwise intra-/inter- class proximity violations in the embedding image. We relate DML to feasibility problem of finite chance constraints. We show that minimizer of proxy-based DML satisfies certain chance constraints, and that the worst case generalization performance of the proxy-based methods can be characterized by the radius of the smallest ball around a class proxy to cover the entire domain of the corresponding class samples, suggesting multiple proxies per class helps performance. To provide a scalable algorithm as well as exploiting more proxies, we consider the chance constraints implied by the minimizers of proxy-based DML instances and reformulate DML as finding a feasible point in intersection of such constraints, resulting in a problem to be approximately solved by iterative projections. Simply put, we repeatedly train a regularized proxy-based loss and re-initialize the proxies with the embeddings of the deliberately selected new samples. We apply our method with the well-accepted losses and evaluate on four popular benchmark datasets for image retrieval. Outperforming state-of-the-art, our method consistently improves the performance of the applied losses. Code is available at: https://github.com/yetigurbuz/ccp-dml

arxiv情報

著者 Yeti Z. Gurbuz,Ogul Can,A. Aydin Alatan
発行日 2022-09-19 14:50:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク