Supervised Metric Learning to Rank for Retrieval via Contextual Similarity Optimization

要約

画像検索のためのメトリック学習法には幅広い関心が持たれている。多くのメトリック学習の損失関数は、訓練サンプルの正しい順位を学習することに焦点を当てているが、意味的に矛盾するラベルを強くオーバーフィットさせ、大量のデータを必要とする。これらの欠点に対処するため、我々は、コサイン類似度に加えて文脈類似度を最適化する、文脈損失と呼ばれる新しいメトリクス学習法を提案する。この文脈損失は、正しいランキングに収束させる一方で、近隣住民間の意味的一貫性を暗黙のうちに強制する。提案する損失は、ラベルノイズに対してより頑健であり、訓練データの大部分が保留された場合でも、オーバーフィッティングの可能性が低いことを経験的に示す。広範な実験により、4つの画像検索ベンチマークと複数の異なる評価設定において、本手法が新たな最先端を達成することを示す。コードは https://github.com/Chris210634/metric-learning-using-contextual-similarity で公開されています。

要約(オリジナル)

There is extensive interest in metric learning methods for image retrieval. Many metric learning loss functions focus on learning a correct ranking of training samples, but strongly overfit semantically inconsistent labels and require a large amount of data. To address these shortcomings, we propose a new metric learning method, called contextual loss, which optimizes contextual similarity in addition to cosine similarity. Our contextual loss implicitly enforces semantic consistency among neighbors while converging to the correct ranking. We empirically show that the proposed loss is more robust to label noise, and is less prone to overfitting even when a large portion of train data is withheld. Extensive experiments demonstrate that our method achieves a new state-of-the-art across four image retrieval benchmarks and multiple different evaluation settings. Code is available at: https://github.com/Chris210634/metric-learning-using-contextual-similarity

arxiv情報

著者 Christopher Liao,Theodoros Tsiligkaridis,Brian Kulis
発行日 2023-06-02 15:25:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク