要約
ハッシュベースの画像検索システムでは、劣化または変換された入力は通常、元のコードとは異なるコードを生成し、検索の精度を低下させます。
この問題を軽減するために、トレーニング中にデータ拡張を適用できます。
ただし、画像の拡張サンプルが実際の特徴空間で類似している場合でも、量子化によってハミング空間でそれらが遠くに散乱する可能性があります。
これにより、表現の不一致が発生し、トレーニングが妨げられ、パフォーマンスが低下する可能性があります。
この作業では、拡張データの可能性を活用しながら、不一致を最小限に抑えるための新しい自己蒸留ハッシュスキームを提案します。
弱く変換されたサンプルのハッシュ知識を強いサンプルに転送することにより、ハッシュコードをさまざまな変換の影響を受けないようにします。
また、ハッシュプロキシベースの類似性学習とバイナリクロスエントロピーベースの量子化損失を導入して、高品質のハッシュコードを提供します。
最終的には、既存のディープハッシュアプローチを改善するだけでなく、最先端の検索結果を実現するディープハッシュフレームワークを構築します。
広範な実験が行われ、私たちの仕事の有効性が確認されています。
要約(オリジナル)
In hash-based image retrieval systems, degraded or transformed inputs usually generate different codes from the original, deteriorating the retrieval accuracy. To mitigate this issue, data augmentation can be applied during training. However, even if augmented samples of an image are similar in real feature space, the quantization can scatter them far away in Hamming space. This results in representation discrepancies that can impede training and degrade performance. In this work, we propose a novel self-distilled hashing scheme to minimize the discrepancy while exploiting the potential of augmented data. By transferring the hash knowledge of the weakly-transformed samples to the strong ones, we make the hash code insensitive to various transformations. We also introduce hash proxy-based similarity learning and binary cross entropy-based quantization loss to provide fine quality hash codes. Ultimately, we construct a deep hashing framework that not only improves the existing deep hashing approaches, but also achieves the state-of-the-art retrieval results. Extensive experiments are conducted and confirm the effectiveness of our work.
arxiv情報
著者 | Young Kyun Jang,Geonmo Gu,Byungsoo Ko,Isaac Kang,Nam Ik Cho |
発行日 | 2022-07-13 12:36:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google