要約
この論文では、ノイズの多いラベルの存在下で機械学習モデルをトレーニングするという課題に対処するための新しいアプローチを提案します。
アイテムの潜在空間内のクラスの重心までの距離の巧妙な使用法を割引戦略と組み合わせて、すべてのクラスの重心 (つまり、外れ値) から遠く離れたサンプルの重要性を減らすことにより、この方法はノイズの多いラベルの問題に効果的に対処します。
私たちのアプローチは、トレーニングの初期段階でそれぞれのクラス重心から離れたサンプルはノイズが多い可能性が高いという考えに基づいています。
いくつかの一般的なベンチマークデータセットでの広範な実験を通じて、この方法の有効性を実証します。
私たちの結果は、データセットにノイズの多いラベルが含まれている場合に、私たちのアプローチがこの分野の最先端技術よりも優れており、分類精度の大幅な改善を達成していることを示しています。
要約(オリジナル)
In this paper, we propose a new approach for addressing the challenge of training machine learning models in the presence of noisy labels. By combining a clever usage of distance to class centroids in the items’ latent space with a discounting strategy to reduce the importance of samples far away from all the class centroids (i.e., outliers), our method effectively addresses the issue of noisy labels. Our approach is based on the idea that samples farther away from their respective class centroid in the early stages of training are more likely to be noisy. We demonstrate the effectiveness of our method through extensive experiments on several popular benchmark datasets. Our results show that our approach outperforms the state-of-the-art in this area, achieving significant improvements in classification accuracy when the dataset contains noisy labels.
arxiv情報
著者 | Farooq Ahmad Wani,Maria Sofia Bucarelli,Fabrizio Silvestri |
発行日 | 2023-03-16 16:43:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google