要約
アンダーソン アクセラレーション (AA) は、反復アルゴリズムの収束を加速するよく知られた方法であり、深層学習や最適化などのさまざまな分野で応用されています。
これらの分野では AA が人気があるにもかかわらず、古典的な機械学習分類器における AA の有効性は十分に研究されていません。
特に表形式のデータは深層学習モデルに特有の課題を提示しており、これらのシナリオでは古典的な機械学習モデルがより優れたパフォーマンスを発揮することが知られています。
ただし、これらのモデルの収束解析はあまり注目されていません。
研究におけるこのギャップに対処するために、収束を高速化するために AA を組み込んだサポート ベクター マシン (SVM) 分類器のバリアントを実装します。
生物学領域のいくつかのデータセットに対してアンダーソン加速を使用した場合と使用しない場合の SVM のパフォーマンスを評価し、AA の使用により収束が大幅に向上し、反復数が増加するにつれてトレーニング損失が減少することを示します。
私たちの発見は、単純な機械学習分類器のトレーニングにおけるアンダーソン加速の可能性について有望な展望を提供し、この分野におけるさらなる研究の重要性を強調しています。
この状況における AA の有効性を示すことで、古典的な機械学習における AA の応用を探るさらなる研究を促すことを目指しています。
要約(オリジナル)
Anderson acceleration (AA) is a well-known method for accelerating the convergence of iterative algorithms, with applications in various fields including deep learning and optimization. Despite its popularity in these areas, the effectiveness of AA in classical machine learning classifiers has not been thoroughly studied. Tabular data, in particular, presents a unique challenge for deep learning models, and classical machine learning models are known to perform better in these scenarios. However, the convergence analysis of these models has received limited attention. To address this gap in research, we implement a support vector machine (SVM) classifier variant that incorporates AA to speed up convergence. We evaluate the performance of our SVM with and without Anderson acceleration on several datasets from the biology domain and demonstrate that the use of AA significantly improves convergence and reduces the training loss as the number of iterations increases. Our findings provide a promising perspective on the potential of Anderson acceleration in the training of simple machine learning classifiers and underscore the importance of further research in this area. By showing the effectiveness of AA in this setting, we aim to inspire more studies that explore the applications of AA in classical machine learning.
arxiv情報
著者 | Sarwan Ali,Prakash Chourasia,Murray Patterson |
発行日 | 2023-08-24 17:42:22+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google