Large-scale Training Data Search for Object Re-identification

要約

ターゲット ドメインにアクセスできるが、オンザフライ トレーニング データ アノテーションを実行する余裕がないというシナリオを考えます。代わりに、競合モデルを取得できるように、大規模なデータ プールから代替トレーニング セットを構築したいと考えています。
.
このトレーニング データ検索の問題に対する検索と枝刈り (SnP) ソリューションを提案します。これは、オブジェクトの再識別 (再 ID) に合わせたもので、異なるカメラでキャプチャされた同じオブジェクトを照合することを目的としたアプリケーションです。
具体的には、検索段階では、ターゲット ドメインと同様の分布を示すソース ID のクラスターを識別してマージします。
第 2 段階では、予算に応じて、第 1 段階の出力から ID とその画像を選択し、結果として得られるトレーニング セットのサイズを制御して効率的なトレーニングを行います。
2 つのステップにより、ソース プールよりも 80\% 小さいトレーニング セットが提供され、同等またはそれ以上の再 ID 精度が達成されます。
これらのトレーニング セットは、ランダム サンプリングやグリーディ サンプリングなどのいくつかの既存の検索方法よりも優れていることも示されています。トレーニング データ サイズは同じです。
予算を解放すれば、第 1 段階だけで得られたトレーニング セットにより、さらに高い再 ID 精度が可能になります。
再 ID 問題に対する私たちの方法の特異性、特に再 ID ドメインのギャップを埋める上でのその役割について、興味深い議論を提供します。
コードは https://github.com/yorkeyao/SnP で入手できます。

要約(オリジナル)

We consider a scenario where we have access to the target domain, but cannot afford on-the-fly training data annotation, and instead would like to construct an alternative training set from a large-scale data pool such that a competitive model can be obtained. We propose a search and pruning (SnP) solution to this training data search problem, tailored to object re-identification (re-ID), an application aiming to match the same object captured by different cameras. Specifically, the search stage identifies and merges clusters of source identities which exhibit similar distributions with the target domain. The second stage, subject to a budget, then selects identities and their images from the Stage I output, to control the size of the resulting training set for efficient training. The two steps provide us with training sets 80\% smaller than the source pool while achieving a similar or even higher re-ID accuracy. These training sets are also shown to be superior to a few existing search methods such as random sampling and greedy sampling under the same budget on training data size. If we release the budget, training sets resulting from the first stage alone allow even higher re-ID accuracy. We provide interesting discussions on the specificity of our method to the re-ID problem and particularly its role in bridging the re-ID domain gap. The code is available at https://github.com/yorkeyao/SnP.

arxiv情報

著者 Yue Yao,Huan Lei,Tom Gedeon,Liang Zheng
発行日 2023-03-28 17:52:19+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク