要約
教師なしハッシュの開発は、最近人気のある対照的学習パラダイムによって進められています。
ただし、以前の対照的な学習ベースの作業は、(1) グローバルのみの画像表現に基づく不十分なデータ類似性マイニング、および (2) データ拡張によって引き起こされるハッシュ コードのセマンティック ロスによって妨げられていました。
この論文では、これら2つの問題を解決するための一歩を踏み出すために、新しい方法、つまり重み付けされた逆ハッシュ(WCH)を提案します。
我々は、相反的拡張中の画像構造の欠落によって引き起こされるネットワーク機能の情報の非対称性の問題を軽減するために、新しい相互注意モジュールを導入します。
さらに、画像間のきめの細かい意味論的関係を調査します。つまり、画像を複数のパッチに分割し、パッチ間の類似性を計算します。
画像の深い関係を反映する集約された加重類似度を抽出して、抽出損失を伴うハッシュ コードの学習を容易にし、より優れた検索パフォーマンスを取得します。
広範な実験により、提案された WCH が 3 つのベンチマーク データセットで既存の教師なしハッシュ法よりも大幅に優れていることが示されています。
要約(オリジナル)
The development of unsupervised hashing is advanced by the recent popular contrastive learning paradigm. However, previous contrastive learning-based works have been hampered by (1) insufficient data similarity mining based on global-only image representations, and (2) the hash code semantic loss caused by the data augmentation. In this paper, we propose a novel method, namely Weighted Contrative Hashing (WCH), to take a step towards solving these two problems. We introduce a novel mutual attention module to alleviate the problem of information asymmetry in network features caused by the missing image structure during contrative augmentation. Furthermore, we explore the fine-grained semantic relations between images, i.e., we divide the images into multiple patches and calculate similarities between patches. The aggregated weighted similarities, which reflect the deep image relations, are distilled to facilitate the hash codes learning with a distillation loss, so as to obtain better retrieval performance. Extensive experiments show that the proposed WCH significantly outperforms existing unsupervised hashing methods on three benchmark datasets.
arxiv情報
著者 | Jiaguo Yu,Huming Qiu,Dubing Chen,Haofeng Zhang |
発行日 | 2022-09-28 13:47:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google