要約
ディープ メトリック ラーニング (DML) の目的は、類似したデータが近くにあり、類似していないデータが遠くにある埋め込み空間にマッピングされるニューラル ネットワークを学習することです。
ただし、DML の従来のプロキシベースの損失には、勾配の問題と、複数のローカルセンターを持つ実世界のデータセットの適用という 2 つの問題があります。
さらに、DML のパフォーマンス メトリックには、安定性と柔軟性に関する問題もあります。
この論文では、3 つのマルチプロキシ アンカー (MPA) ファミリの損失と、正規化された割引累積ゲイン (nDCG@k) メトリックを提案します。
この論文は 3 つの貢献をしている。
(1) MPA ファミリーの損失は、複数のローカル センターを持つ実世界のデータセットを使用して学習できます。
(2) MPA ファミリーの損失は、勾配問題を解決することにより、ニューラル ネットワークのトレーニング容量を向上させます。
(3) MPA ファミリーの損失には、勾配生成に関してデータごとまたはクラスごとの特性があります。
最後に、MPA ファミリーの損失の有効性を示します。MPA ファミリーの損失は、きめの細かい画像の 2 つのデータセットでより高い精度を実現します。
要約(オリジナル)
The deep metric learning (DML) objective is to learn a neural network that maps into an embedding space where similar data are near and dissimilar data are far. However, conventional proxy-based losses for DML have two problems: gradient problem and application of the real-world dataset with multiple local centers. Additionally, the performance metrics of DML also have some issues with stability and flexibility. This paper proposes three multi-proxies anchor (MPA) family losses and a normalized discounted cumulative gain (nDCG@k) metric. This paper makes three contributions. (1) MPA-family losses can learn using a real-world dataset with multi-local centers. (2) MPA-family losses improve the training capacity of a neural network owing to solving the gradient problem. (3) MPA-family losses have data-wise or class-wise characteristics with respect to gradient generation. Finally, we demonstrate the effectiveness of MPA-family losses, and MPA-family losses achieves higher accuracy on two datasets for fine-grained images.
arxiv情報
著者 | Shozo Saeki,Minoru Kawahara,Hirohisa Aman |
発行日 | 2023-02-22 10:05:18+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google