An Adaptive Cost-Sensitive Learning and Recursive Denoising Framework for Imbalanced SVM Classification

要約

カテゴリの不均衡は、分類の分野で最も一般的かつ重要な問題の 1 つです。
不均衡なデータセットでトレーニングされた感情分類モデルは、信頼性の低い予測につながりやすくなります。
従来の機械学習手法では多数派クラスが優先される傾向があり、モデル内に少数派クラスの情報が不足します。
さらに、既存のモデルのほとんどは異常な感度の問題やパフォーマンスの低下を引き起こします。
我々は、適応型コスト感度と再帰的ノイズ除去に基づいた堅牢な学習アルゴリズムを提案します。これは一般化されたフレームワークであり、ほとんどの確率的最適化アルゴリズムに組み込むことができます。
提案手法は、サンプルと決定境界間の動的カーネル距離最適化モデルを使用し、サンプルの事前情報を最大限に活用します。
さらに、ノイズをフィルタリングする効果的な方法も提案しました。その主なアイデアは、少数派クラスの最近傍を見つけることによってノイズを判断することです。
提案手法の強度を評価するために、標準データセットで実験を行うだけでなく、異なる不均衡率 (IR) を持つ感情分類問題にも適用します。
実験結果は、提案された一般的なフレームワークが精度、再現率、G 平均の点で従来の方法よりも優れていることを示しています。

要約(オリジナル)

Category imbalance is one of the most popular and important issues in the domain of classification. Emotion classification model trained on imbalanced datasets easily leads to unreliable prediction. The traditional machine learning method tends to favor the majority class, which leads to the lack of minority class information in the model. Moreover, most existing models will produce abnormal sensitivity issues or performance degradation. We propose a robust learning algorithm based on adaptive cost-sensitiveity and recursive denoising, which is a generalized framework and can be incorporated into most stochastic optimization algorithms. The proposed method uses the dynamic kernel distance optimization model between the sample and the decision boundary, which makes full use of the sample’s prior information. In addition, we also put forward an effective method to filter noise, the main idea of which is to judge the noise by finding the nearest neighbors of the minority class. In order to evaluate the strength of the proposed method, we not only carry out experiments on standard datasets but also apply it to emotional classification problems with different imbalance rates (IR). Experimental results show that the proposed general framework is superior to traditional methods in accuracy, recall and G-means.

arxiv情報

著者 Lu Jiang,Qi Wang,Yuhang Chang,Jianing Song,Haoyue Fu
発行日 2024-05-10 07:45:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク