Cascading Hierarchical Networks with Multi-task Balanced Loss for Fine-grained hashing

要約

インターネット時代におけるきめの細かい画像の数の爆発的な増加に伴い、大規模なきめの細かい画像から高速かつ効率的な検索を実行することが困難な問題になっています。
多くの検索方法の中で、ハッシュ方法は、効率が高く、記憶域の占有量が少ないため、広く使用されています。
きめの細かいハッシュは、きめの細かい画像の特性によってクラス間分散が低く、クラス内分散が高いなどの問題があるため、従来のハッシュ問題よりも困難です。
細粒度ハッシュの検索精度を向上させるために、コンパクトで高度にセマンティックなハッシュコードを学習するカスケードネットワークを提案し、注意誘導型データ拡張方法を導入します。
このネットワークを、カスケード階層データ拡張ネットワークと呼びます。
また、マルチタスク学習の損失を協調的にバランスさせるための新しいアプローチも提案します。
私たちは、いくつかの一般的なきめの細かい視覚的分類データセットに対して広範な実験を行います。
実験結果は、提案された方法がいくつかの最先端のハッシュ方法よりも優れており、きめの細かい検索の精度を効果的に改善できることを示しています。
ソース コードは公開されています: https://github.com/kaiba007/FG-CNET。

要約(オリジナル)

With the explosive growth in the number of fine-grained images in the Internet era, it has become a challenging problem to perform fast and efficient retrieval from large-scale fine-grained images. Among the many retrieval methods, hashing methods are widely used due to their high efficiency and small storage space occupation. Fine-grained hashing is more challenging than traditional hashing problems due to the difficulties such as low inter-class variances and high intra-class variances caused by the characteristics of fine-grained images. To improve the retrieval accuracy of fine-grained hashing, we propose a cascaded network to learn compact and highly semantic hash codes, and introduce an attention-guided data augmentation method. We refer to this network as a cascaded hierarchical data augmentation network. We also propose a novel approach to coordinately balance the loss of multi-task learning. We do extensive experiments on some common fine-grained visual classification datasets. The experimental results demonstrate that our proposed method outperforms several state-of-art hashing methods and can effectively improve the accuracy of fine-grained retrieval. The source code is publicly available: https://github.com/kaiba007/FG-CNET.

arxiv情報

著者 Xianxian Zeng,Yanjun Zheng
発行日 2023-03-20 17:08:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク