要約
ディープ メトリック ラーニング (DML) 手法は、距離が入力の固有の意味的類似性に密接に関連する埋め込み空間を学習することを目的としています。
これまでの研究では、一般的なベンチマーク データセットには多くの誤ったラベルが含まれていることが多く、DML 手法はそれらの影響を受けやすいことが示されています。
現実的なノイズの影響を研究することを目的として、データセット内のクラスのオントロジーを作成し、それを使用して意味的に一貫したラベル付けの間違いをシミュレートします。
堅牢な DML モデルをトレーニングするために、クラス代表までの正規化された距離を使用して各サンプルに信頼スコアを割り当てる単純なフレームワークである ProcSim を提案します。
実験結果は、提案された方法が、均一なノイズと提案された意味論的にコヒーレントなノイズが注入された DML ベンチマーク データセット上で最先端のパフォーマンスを達成することを示しています。
要約(オリジナル)
Deep Metric Learning (DML) methods aim at learning an embedding space in which distances are closely related to the inherent semantic similarity of the inputs. Previous studies have shown that popular benchmark datasets often contain numerous wrong labels, and DML methods are susceptible to them. Intending to study the effect of realistic noise, we create an ontology of the classes in a dataset and use it to simulate semantically coherent labeling mistakes. To train robust DML models, we propose ProcSim, a simple framework that assigns a confidence score to each sample using the normalized distance to its class representative. The experimental results show that the proposed method achieves state-of-the-art performance on the DML benchmark datasets injected with uniform and the proposed semantically coherent noise.
arxiv情報
著者 | Oriol Barbany,Xiaofan Lin,Muhammet Bastan,Arnab Dhua |
発行日 | 2023-11-01 17:17:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google