Feature Selection Based on Wasserstein Distance

要約

この論文では、Wasserstein 距離に基づいた新しい特徴選択方法を紹介します。
特徴選択は、入力データの次元を削減する上で重要な役割を果たし、それによって機械学習の効率と汎化パフォーマンスが向上します。
相関や KL 発散などの基準に依存する従来の特徴選択アプローチとは異なり、私たちの方法ではワッサーシュタイン距離を活用して、選択された特徴の分布と元の特徴の類似性を測定します。
このアプローチは本質的にクラス間の類似性を考慮しており、ノイズの多いラベルが含まれるシナリオでも堅牢になります。
実験結果は、特にノイズの多いラベル付きデータを含む困難な設定において、私たちの方法が従来のアプローチよりも優れていることを示しています。

要約(オリジナル)

In this paper, we present a novel feature selection method based on the Wasserstein distance. Feature selection plays a critical role in reducing the dimensionality of input data, thereby improving machine learning efficiency and generalization performance. Unlike traditional feature selection approaches that rely on criteria such as correlation or KL divergence, our method leverages the Wasserstein distance to measure the similarity between distributions of selected features and original features. This approach inherently accounts for similarities between classes, making it robust in scenarios involving noisy labels. Experimental results demonstrate that our method outperforms traditional approaches, particularly in challenging settings involving noisy labeled data.

arxiv情報

著者 Fuwei Li
発行日 2024-11-11 18:38:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク