Instance Image Retrieval by Learning Purely From Within the Dataset

要約

質の高い特徴表現は、インスタンス イメージの検索の鍵となります。
それを達成するために、既存の方法は通常、ベンチマーク データセットで事前にトレーニングされた深いモデルに頼るか、タスク依存のラベル付き補助データセットを使用してモデルを微調整することさえあります。
有望な結果を達成していますが、このアプローチは 2 つの問題によって制限されています。1) ベンチマーク データセットと特定の検索タスクのデータセットの間のドメイン ギャップ。
2) 必要な補助データセットをすぐに取得できない。
この状況に照らして、この研究では、これまで十分に調査されていなかった別のアプローチを調べます。たとえば、画像検索: {優れた検索を実現するために、特定の検索タスクに固有の特徴表現 \textit{specific to} を学習できますか?}
発見は励みになります。
オブジェクト提案ジェネレーターを追加して、自己教師あり学習用の画像領域を生成することにより、調査されたアプローチは、検索のために特定のデータセットに固有の特徴表現を正常に学習できます。
この表現は、データセットからマイニングされた画像の類似性情報でブーストすることにより、さらに効果的にすることができます。
実験的に検証されているように、このような単純な「自己教師あり学習 + 自己ブースティング」アプローチは、関連する最先端の検索方法と十分に競合できます。
このアプローチの魅力的な特性と、データセット間の一般化に対するその制限を示すために、アブレーション研究が実施されています。

要約(オリジナル)

Quality feature representation is key to instance image retrieval. To attain it, existing methods usually resort to a deep model pre-trained on benchmark datasets or even fine-tune the model with a task-dependent labelled auxiliary dataset. Although achieving promising results, this approach is restricted by two issues: 1) the domain gap between benchmark datasets and the dataset of a given retrieval task; 2) the required auxiliary dataset cannot be readily obtained. In light of this situation, this work looks into a different approach which has not been well investigated for instance image retrieval previously: {can we learn feature representation \textit{specific to} a given retrieval task in order to achieve excellent retrieval?} Our finding is encouraging. By adding an object proposal generator to generate image regions for self-supervised learning, the investigated approach can successfully learn feature representation specific to a given dataset for retrieval. This representation can be made even more effective by boosting it with image similarity information mined from the dataset. As experimentally validated, such a simple “self-supervised learning + self-boosting” approach can well compete with the relevant state-of-the-art retrieval methods. Ablation study is conducted to show the appealing properties of this approach and its limitation on generalisation across datasets.

arxiv情報

著者 Zhongyan Zhang,Lei Wang,Yang Wang,Luping Zhou,Jianjia Zhang,Peng Wang,Fang Chen
発行日 2022-08-12 04:51:53+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク