AEMLO: AutoEncoder-Guided Multi-Label Oversampling

要約

クラスの不均衡は、マルチラベル分類器のパフォーマンスに大きな影響を与えます。
オーバーサンプリングは最も一般的なアプローチの 1 つであり、頻度の低いラベルに関連付けられたインスタンスを増やしてクラス分布のバランスをとります。
既存のオーバーサンプリング手法は、複製または線形補間を通じて合成サンプルの特徴ベクトルを生成し、近傍情報を通じてラベルを割り当てます。
線形補間では通常、既存のデータ ポイント間に新しいサンプルが生成されるため、合成サンプルの多様性が不十分になり、さらにオーバーフィッティングの問題が発生する可能性があります。
AutoEncoder などの深層学習ベースの手法は、より多様で複雑な合成サンプルを生成し、不均衡なバイナリ データセットやマルチクラス データセットで優れたパフォーマンスを実現するために提案されています。
この研究では、不均衡なマルチラベル データに対処するために特別に設計された AutoEncoder ガイド付きオーバーサンプリング手法である AEMLO を紹介します。
AEMLO は 2 つの基本コンポーネントに基づいて構築されています。
1 つ目は、モデルが入力データを低次元の特徴空間にエンコードし、その潜在的な表現を学習し、それを元の次元に再構築して新しいデータの生成に適用できるようにするエンコーダー/デコーダー アーキテクチャです。
2 つ目は、マルチラベル シナリオのサンプリング タスクを最適化するために調整された目的関数です。
私たちは、広範な実証研究により、AEMLO が既存の最先端の手法よりも優れていることを示しています。

要約(オリジナル)

Class imbalance significantly impacts the performance of multi-label classifiers. Oversampling is one of the most popular approaches, as it augments instances associated with less frequent labels to balance the class distribution. Existing oversampling methods generate feature vectors of synthetic samples through replication or linear interpolation and assign labels through neighborhood information. Linear interpolation typically generates new samples between existing data points, which may result in insufficient diversity of synthesized samples and further lead to the overfitting issue. Deep learning-based methods, such as AutoEncoders, have been proposed to generate more diverse and complex synthetic samples, achieving excellent performance on imbalanced binary or multi-class datasets. In this study, we introduce AEMLO, an AutoEncoder-guided Oversampling technique specifically designed for tackling imbalanced multi-label data. AEMLO is built upon two fundamental components. The first is an encoder-decoder architecture that enables the model to encode input data into a low-dimensional feature space, learn its latent representations, and then reconstruct it back to its original dimension, thus applying to the generation of new data. The second is an objective function tailored to optimize the sampling task for multi-label scenarios. We show that AEMLO outperforms the existing state-of-the-art methods with extensive empirical studies.

arxiv情報

著者 Ao Zhou,Bin Liu,Jin Wang,Kaiwei Sun,Kelin Liu
発行日 2024-08-23 14:01:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク