Informative Sample-Aware Proxy for Deep Metric Learning

要約

さまざまな教師あり深層メトリック学習法の中で、プロキシベースのアプローチは高い検索精度を達成しています。
埋め込み空間のクラス代表点であるプロキシは、サンプル表現と同様の方法で、プロキシとサンプルの類似性に基づいて更新を受け取ります。
既存の方法では、比較的少数のサンプルで大きな勾配の大きさが生成され(つまりハード サンプル)、比較的多数のサンプルで小さな勾配の大きさが生成されます(つまり簡単なサンプル)。
これらは更新で重要な役割を果たします。
このような極端なサンプルセットに対する感度が高すぎると、メソッドの一般化可能性が低下すると仮定して、各サンプルの勾配重み係数を直接変更する、Informative Sample-Aware Proxy (Proxy-ISA) と呼ばれる新しいプロキシベースの方法を提案します。
モデルが有益なサンプルに対してより敏感になるように、スケジュールされたしきい値関数を使用します。
CUB-200-2011、Cars-196、Stanford Online Products および In-shop Clothing Retrieval データセットに関する広範な実験により、最先端の方法と比較して Proxy-ISA の優位性が実証されています。

要約(オリジナル)

Among various supervised deep metric learning methods proxy-based approaches have achieved high retrieval accuracies. Proxies, which are class-representative points in an embedding space, receive updates based on proxy-sample similarities in a similar manner to sample representations. In existing methods, a relatively small number of samples can produce large gradient magnitudes (ie, hard samples), and a relatively large number of samples can produce small gradient magnitudes (ie, easy samples); these can play a major part in updates. Assuming that acquiring too much sensitivity to such extreme sets of samples would deteriorate the generalizability of a method, we propose a novel proxy-based method called Informative Sample-Aware Proxy (Proxy-ISA), which directly modifies a gradient weighting factor for each sample using a scheduled threshold function, so that the model is more sensitive to the informative samples. Extensive experiments on the CUB-200-2011, Cars-196, Stanford Online Products and In-shop Clothes Retrieval datasets demonstrate the superiority of Proxy-ISA compared with the state-of-the-art methods.

arxiv情報

著者 Aoyu Li,Ikuro Sato,Kohta Ishikawa,Rei Kawakami,Rio Yokota
発行日 2022-11-18 17:25:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.IR パーマリンク