Metric Compatible Training for Online Backfilling in Large-Scale Retrieval

要約

バックフィルは、画像検索システムのアップグレードされたモデルからすべてのギャラリー埋め込みを再抽出するプロセスです。
必然的に法外に大量の計算コストが必要となり、さらにはサービスのダウンタイムが発生することもあります。
下位互換性のある学習は、クエリ側の表現に取り組むことでこの課題を回避しますが、ギャラリーの埋め込みはモデルのアップグレードの恩恵を受けることができないため、原理的には次善のソリューションになります。
当社は、オンライン バックフィル アルゴリズムを導入することでこのジレンマに対処します。これにより、バックフィル完了後の新しいモデルの最終パフォーマンスを犠牲にすることなく、バックフィル プロセス中に段階的なパフォーマンスの向上を達成することができます。
この目的を達成するために、まずオンライン バックフィルのための単純な距離ランク マージ手法を提案します。
次に、より効果的かつ効率的なマージのための逆変換モジュールを組み込みます。これは、メトリック互換の対照学習アプローチを採用することでさらに強化されます。
これら 2 つのコンポーネントは、古いモデルと新しいモデルの距離に互換性を持たせるのに役立ち、余分な計算オーバーヘッドなしでバックフィル中に望ましいマージ結果が得られます。
広範な実験により、さまざまな設定における 4 つの標準ベンチマークにおけるフレームワークの有効性が示されています。

要約(オリジナル)

Backfilling is the process of re-extracting all gallery embeddings from upgraded models in image retrieval systems. It inevitably requires a prohibitively large amount of computational cost and even entails the downtime of the service. Although backward-compatible learning sidesteps this challenge by tackling query-side representations, this leads to suboptimal solutions in principle because gallery embeddings cannot benefit from model upgrades. We address this dilemma by introducing an online backfilling algorithm, which enables us to achieve a progressive performance improvement during the backfilling process while not sacrificing the final performance of new model after the completion of backfilling. To this end, we first propose a simple distance rank merge technique for online backfilling. Then, we incorporate a reverse transformation module for more effective and efficient merging, which is further enhanced by adopting a metric-compatible contrastive learning approach. These two components help to make the distances of old and new models compatible, resulting in desirable merge results during backfilling with no extra computational overhead. Extensive experiments show the effectiveness of our framework on four standard benchmarks in various settings.

arxiv情報

著者 Seonguk Seo,Mustafa Gokhan Uzunbas,Bohyung Han,Sara Cao,Ser-Nam Lim
発行日 2024-12-19 16:45:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.IR, cs.LG パーマリンク