要約
多くの評価メトリクスを使用して、二値分類タスクにおけるモデルのパフォーマンスを評価できます。
ただし、それらのほとんどは、微分不可能な形式の混同行列から導出されるため、それらを直接最適化できる微分可能な損失関数を生成することが非常に困難になります。
この課題を解決するソリューションが不足しているため、不均衡な学習などの困難なタスクを解決する能力が妨げられるだけでなく、モデル選択において計算コストのかかるハイパーパラメータ検索プロセスの導入が必要になります。
この論文では、混同行列ベースのメトリックを、最適化プロセスで使用できる損失関数 \textit{AnyLoss} に変換する汎用アプローチを提案します。
この目的を達成するために、近似関数を使用して混同行列を微分可能な形式で表現します。このアプローチにより、混同行列ベースの計量を損失関数として直接使用できるようになります。
近似関数のメカニズムは、その操作性を保証するために提供されており、損失関数の微分可能性は、その導関数を提案することによって証明されます。
私たちは、多くのデータセットを備えた多様なニューラル ネットワークの下で広範な実験を実施し、混同行列ベースのメトリクスをターゲットとする一般的な可用性を実証します。
特に、私たちの方法は、不均衡なデータセットの処理において優れた成果を示しており、複数のベースライン モデルと比較してその学習速度が競争力があることから、その効率性が強調されています。
要約(オリジナル)
Many evaluation metrics can be used to assess the performance of models in binary classification tasks. However, most of them are derived from a confusion matrix in a non-differentiable form, making it very difficult to generate a differentiable loss function that could directly optimize them. The lack of solutions to bridge this challenge not only hinders our ability to solve difficult tasks, such as imbalanced learning, but also requires the deployment of computationally expensive hyperparameter search processes in model selection. In this paper, we propose a general-purpose approach that transforms any confusion matrix-based metric into a loss function, \textit{AnyLoss}, that is available in optimization processes. To this end, we use an approximation function to make a confusion matrix represented in a differentiable form, and this approach enables any confusion matrix-based metric to be directly used as a loss function. The mechanism of the approximation function is provided to ensure its operability and the differentiability of our loss functions is proved by suggesting their derivatives. We conduct extensive experiments under diverse neural networks with many datasets, and we demonstrate their general availability to target any confusion matrix-based metrics. Our method, especially, shows outstanding achievements in dealing with imbalanced datasets, and its competitive learning speed, compared to multiple baseline models, underscores its efficiency.
arxiv情報
著者 | Doheon Han,Nuno Moniz,Nitesh V Chawla |
発行日 | 2024-05-23 16:14:16+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google