要約
近年、ハッシュ方式は、低ストレージと強力な表現機能を求めて大規模なメディア検索で一般的になっています。
全体的な外観は似ているが、微妙な違いがある物体を記述するために、ハッシュベースのきめ細かい画像検索に焦点を当てた研究が増えています。
既存のハッシュ ネットワークは通常、同じディープ アクティベーション テンソルに対する注意ガイダンスを通じてローカル特徴とグローバル特徴の両方を生成するため、特徴表現の多様性が制限されます。
この制限に対処するために、私たちはアテンションガイド付き特徴の代わりに畳み込み記述子を使用し、カテゴリ固有の視覚属性をグループ化して複数の記述子に埋め込む属性グループ化およびマイニング ハッシュ (AGMH) を提案します。
画像の検索。
具体的には、注意分散損失 (ADL) は、記述子がさまざまなローカル領域に注意を払い、多様な微妙な詳細を捕捉するように設計されています。
さらに、各記述子の重要な属性をマイニングし、きめの細かい属性とオブジェクト間の相関関係を構築するために、段階的インタラクティブ外部アテンション (SIEA) を提案します。
アテンション メカニズムは離散属性の学習に特化しているため、ハッシュ コードの生成に追加の計算がかかりません。
最後に、ペアごとの類似性を保存することによってコンパクト バイナリ コードが学習されます。
実験結果は、AGMH がきめ細かいベンチマーク データセットでの最先端の手法に対して一貫して最高のパフォーマンスを生み出すことを示しています。
要約(オリジナル)
In recent years, hashing methods have been popular in the large-scale media search for low storage and strong representation capabilities. To describe objects with similar overall appearance but subtle differences, more and more studies focus on hashing-based fine-grained image retrieval. Existing hashing networks usually generate both local and global features through attention guidance on the same deep activation tensor, which limits the diversity of feature representations. To handle this limitation, we substitute convolutional descriptors for attention-guided features and propose an Attributes Grouping and Mining Hashing (AGMH), which groups and embeds the category-specific visual attributes in multiple descriptors to generate a comprehensive feature representation for efficient fine-grained image retrieval. Specifically, an Attention Dispersion Loss (ADL) is designed to force the descriptors to attend to various local regions and capture diverse subtle details. Moreover, we propose a Stepwise Interactive External Attention (SIEA) to mine critical attributes in each descriptor and construct correlations between fine-grained attributes and objects. The attention mechanism is dedicated to learning discrete attributes, which will not cost additional computations in hash codes generation. Finally, the compact binary codes are learned by preserving pairwise similarities. Experimental results demonstrate that AGMH consistently yields the best performance against state-of-the-art methods on fine-grained benchmark datasets.
arxiv情報
著者 | Xin Lu,Shikun Chen,Yichao Cao,Xin Zhou,Xiaobo Lu |
発行日 | 2023-11-10 14:01:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google