Enhancing Pattern Classification in Support Vector Machines through Matrix Formulation

要約

サポート ベクター マシン (SVM) は、統計的学習理論の実装に成功したため、分類器として大きな評価を集めています。
ただし、マルチクラスおよびマルチラベル設定のコンテキストでは、既存の SVM ベースのモデルにおけるベクトルベースの定式化への依存により、特定の課題に対処するための追加項の組み込みの柔軟性と容易さに関して制限が生じます。
これらの制限を克服するために、私たちの研究論文では、これらの制限に効果的に対処する SVM の行列定式化の導入に焦点を当てています。
デュアルで加速勾配降下法を採用することにより、行列-SVM 問題を解く効率が大幅に向上しました。
マルチラベルおよびマルチクラス データセットの実験評価では、マトリックス SVM がバイナリ関連性 SVM と同様の結果を提供しながら、優れた時間効率を実現することが実証されています。
さらに、私たちの行列の定式化は、従来のベクトルベースの表記法ではすぐには明らかではなかった重要な洞察と利点を明らかにします。
特定の要件を満たすためにカスタマイズされた変更を加えて、多数のマルチラベル モデルを SVM の拡張機能と見なすことができることを強調します。
この論文で紹介した行列の定式化は、マルチラベル学習で遭遇する特有の課題に効果的に対処できる、より洗練されたモデルを開発するための強固な基盤を確立します。

要約(オリジナル)

Support Vector Machines (SVM) have gathered significant acclaim as classifiers due to their successful implementation of Statistical Learning Theory. However, in the context of multiclass and multilabel settings, the reliance on vector-based formulations in existing SVM-based models poses limitations regarding flexibility and ease of incorporating additional terms to handle specific challenges. To overcome these limitations, our research paper focuses on introducing a matrix formulation for SVM that effectively addresses these constraints. By employing the Accelerated Gradient Descent method in the dual, we notably enhance the efficiency of solving the Matrix-SVM problem. Experimental evaluations on multilabel and multiclass datasets demonstrate that Matrix SVM achieves superior time efficacy while delivering similar results to Binary Relevance SVM. Moreover, our matrix formulation unveils crucial insights and advantages that may not be readily apparent in traditional vector-based notations. We emphasize that numerous multilabel models can be viewed as extensions of SVM, with customised modifications to meet specific requirements. The matrix formulation presented in this paper establishes a solid foundation for developing more sophisticated models capable of effectively addressing the distinctive challenges encountered in multilabel learning.

arxiv情報

著者 Sambhav Jain Reshma Rastogi
発行日 2023-07-18 15:56:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク