Self-supervised Training Sample Difficulty Balancing for Local Descriptor Learning

要約

ポジティブ サンプルとネガティブ サンプルの間の不均衡の場合、モデルがポジティブ サンプルとネガティブ サンプルの間のより微妙な違いを学習するのに役立つハード ネガティブ マイニング戦略が示されているため、認識パフォーマンスが向上します。
ただし、データセットで厳密なマイニング戦略が推進されている場合、偽陰性サンプルが導入されるリスクが生じる可能性があります。
一方、マイニング戦略の実装は、実際のデータセット内のサンプルの難易度分布を混乱させ、モデルがこれらの困難なサンプルに過剰適合する可能性があります。
したがって、この論文では、高品質のネガティブサンプルを取得して活用するために、マイニングされたサンプルの難しさをトレードオフする方法を調査し、損失関数とトレーニング戦略の両方の観点から問題を解決しようとします。
提案されたバランス損失は、損失関数への自己教師ありアプローチを組み合わせることにより、負のサンプルの品質に効果的な判別式を提供し、動的勾配変調戦略を使用して、さまざまな困難のサンプルのより細かい勾配調整を実現します。
次に、提案されたアニーリング トレーニング戦略は、ネガティブ サンプル マイニングから抽出されたサンプルの難易度を制約して、データ ソースに損失関数のさまざまな難易度分布を提供し、難易度が低下するサンプルを使用してモデルをトレーニングします。
広範な実験により、パッチの検証、照合、検索タスクにおいて、新しい記述子が以前の最先端の記述子よりも優れていることが示されています。

要約(オリジナル)

In the case of an imbalance between positive and negative samples, hard negative mining strategies have been shown to help models learn more subtle differences between positive and negative samples, thus improving recognition performance. However, if too strict mining strategies are promoted in the dataset, there may be a risk of introducing false negative samples. Meanwhile, the implementation of the mining strategy disrupts the difficulty distribution of samples in the real dataset, which may cause the model to over-fit these difficult samples. Therefore, in this paper, we investigate how to trade off the difficulty of the mined samples in order to obtain and exploit high-quality negative samples, and try to solve the problem in terms of both the loss function and the training strategy. The proposed balance loss provides an effective discriminant for the quality of negative samples by combining a self-supervised approach to the loss function, and uses a dynamic gradient modulation strategy to achieve finer gradient adjustment for samples of different difficulties. The proposed annealing training strategy then constrains the difficulty of the samples drawn from negative sample mining to provide data sources with different difficulty distributions for the loss function, and uses samples of decreasing difficulty to train the model. Extensive experiments show that our new descriptors outperform previous state-of-the-art descriptors for patch validation, matching, and retrieval tasks.

arxiv情報

著者 Jiahan Zhang,Dayong Tian
発行日 2023-03-10 18:37:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV パーマリンク