要約
ディープ メトリック ラーニングは、意味的に類似したサンプルが近くにあり、類似していないサンプルが反発する埋め込み空間を学習することを目的としています。
拡張と一般化のためのより困難で有益なトレーニング信号を調査するために、最近の方法は合成サンプルの生成に焦点を当てて、メトリック学習の損失を高めます。
ただし、これらの方法は決定論的でクラスに依存しない生成 (単純な線形補間など) を使用するだけであり、元のサンプル周辺の分布空間の限られた部分しかカバーできません。
彼らは、さまざまなクラスの幅広い特性の変化を見過ごしており、世代間の豊富なクラス内バリエーションをモデル化することはできません.
したがって、生成されたサンプルには、特定のクラス内の豊富なセマンティクスが欠けているだけでなく、トレーニングを妨害するノイズの多い信号になる可能性もあります。
この論文では、深層計量学習のための新しいクラス内適応拡張 (IAA) フレームワークを提案します。
すべてのクラスのクラス内変動を合理的に推定し、適応合成サンプルを生成して、ハード サンプル マイニングをサポートし、メトリクスの学習損失を高めます。
さらに、クラス内にいくつかのサンプルがあるほとんどのデータセットでは、類似のクラスが一般的に類似の変動分布を持つ相関関係の発見に従って、不正確な推定を修正するために近隣補正を提案します。
5 つのベンチマークに関する大規模な実験では、私たちの方法が検索パフォーマンスにおいて最先端の方法よりも 3% から 6% 大幅に改善され、優れていることが示されています。
コードは https://github.com/darkpromise98/IAA で入手できます。
要約(オリジナル)
Deep metric learning aims to learn an embedding space, where semantically similar samples are close together and dissimilar ones are repelled against. To explore more hard and informative training signals for augmentation and generalization, recent methods focus on generating synthetic samples to boost metric learning losses. However, these methods just use the deterministic and class-independent generations (e.g., simple linear interpolation), which only can cover the limited part of distribution spaces around original samples. They have overlooked the wide characteristic changes of different classes and can not model abundant intra-class variations for generations. Therefore, generated samples not only lack rich semantics within the certain class, but also might be noisy signals to disturb training. In this paper, we propose a novel intra-class adaptive augmentation (IAA) framework for deep metric learning. We reasonably estimate intra-class variations for every class and generate adaptive synthetic samples to support hard samples mining and boost metric learning losses. Further, for most datasets that have a few samples within the class, we propose the neighbor correction to revise the inaccurate estimations, according to our correlation discovery where similar classes generally have similar variation distributions. Extensive experiments on five benchmarks show our method significantly improves and outperforms the state-of-the-art methods on retrieval performances by 3%-6%. Our code is available at https://github.com/darkpromise98/IAA
arxiv情報
著者 | Zheren Fu,Zhendong Mao,Bo Hu,An-An Liu,Yongdong Zhang |
発行日 | 2022-11-29 14:52:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google