Hierarchical Average Precision Training for Pertinent Image Retrieval

要約

画像検索は通常、平均適合率(AP)または再現率@kで評価されます。
ただし、これらのメトリックはバイナリラベルに制限されており、エラーの重大度は考慮されていません。
本論文では、適切な画像検索のための新しい階層的APトレーニング方法(HAP-PIER)を紹介します。
HAPPIERは、新しいH-APメトリックに基づいています。これは、概念階層を活用して、エラーの重要性を統合し、ランキングをより適切に評価することでAPを改善します。
H-APを使用して深いモデルをトレーニングするために、問題の構造を注意深く調査し、一貫した順序付けを保証するクラスタリング損失と組み合わせた滑らかな下限サロゲートを設計します。
6つのデータセットでの広範な実験により、HAPPIERは、階層検索の最先端の方法を大幅に上回り、きめ細かいランキングパフォーマンスを評価する際の最新のアプローチと同等であることが示されています。
最後に、HAPPIERが埋め込みスペースのより良い編成につながり、非階層的な方法の最も深刻な失敗のケースを防ぐことを示します。
私たちのコードはhttps://github.com/elias-ramzi/HAPPIERで公開されています。

要約(オリジナル)

Image Retrieval is commonly evaluated with Average Precision (AP) or Recall@k. Yet, those metrics, are limited to binary labels and do not take into account errors’ severity. This paper introduces a new hierarchical AP training method for pertinent image retrieval (HAP-PIER). HAPPIER is based on a new H-AP metric, which leverages a concept hierarchy to refine AP by integrating errors’ importance and better evaluate rankings. To train deep models with H-AP, we carefully study the problem’s structure and design a smooth lower bound surrogate combined with a clustering loss that ensures consistent ordering. Extensive experiments on 6 datasets show that HAPPIER significantly outperforms state-of-the-art methods for hierarchical retrieval, while being on par with the latest approaches when evaluating fine-grained ranking performances. Finally, we show that HAPPIER leads to better organization of the embedding space, and prevents most severe failure cases of non-hierarchical methods. Our code is publicly available at: https://github.com/elias-ramzi/HAPPIER.

arxiv情報

著者 Elias Ramzi,Nicolas Audebert,Nicolas Thome,Clément Rambour,Xavier Bitot
発行日 2022-07-22 13:24:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG, eess.IV パーマリンク