Supervised Metric Learning to Rank for Retrieval via Contextual Similarity Optimization

要約

画像検索のための計量学習法には幅広い関心が持たれている。多くのメトリクス学習の損失関数は、学習サンプルの正しいランキングの学習に焦点を当てているが、意味的に一貫性のないラベルを強く過剰に適合させ、また、大量のデータを必要とする。これらの欠点を解決するために、我々はcos類似度に加えて文脈類似度を最適化する文脈損失と呼ばれる新しいメトリクス学習法を提案する。本手法では、文脈損失により、暗黙のうちに隣人間の意味的整合性を確保しつつ、正しい順位に収束させる。我々は経験的に、提案する損失はラベルノイズに対してより頑健であり、学習データの大部分を伏せてもオーバーフィッティングが起こりにくいことを示す。また,大規模な実験により,4つの画像検索ベンチマークと複数の異なる評価設定において,我々の手法が新たな最先端を達成することを示す.コードは https://github.com/Chris210634/metric-learning-using-contextual-similarity で公開されている。

要約(オリジナル)

There is extensive interest in metric learning methods for image retrieval. Many metric learning loss functions focus on learning a correct ranking of training samples, but strongly overfit semantically inconsistent labels and require a large amount of data. To address these shortcomings, we propose a new metric learning method, called contextual loss, which optimizes contextual similarity in addition to cosine similarity. Our contextual loss implicitly enforces semantic consistency among neighbors while converging to the correct ranking. We empirically show that the proposed loss is more robust to label noise, and is less prone to overfitting even when a large portion of train data is withheld. Extensive experiments demonstrate that our method achieves a new state-of-the-art across four image retrieval benchmarks and multiple different evaluation settings. Code is available at: https://github.com/Chris210634/metric-learning-using-contextual-similarity

arxiv情報

著者 Christopher Liao,Theodoros Tsiligkaridis,Brian Kulis
発行日 2023-02-07 18:19:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG パーマリンク