要約
タイトル:Neural Generalization of Multiple Kernel Learning
要約:
– Kernel-basedな方法でカーネル関数を学習する方法として、Multiple Kernel Learning(MKL)がある。
– MKLアルゴリズムはカーネル方法の性能を向上させるが、複雑な問題にはDeep Learningモデルより低い精度しか出せない。
– Deep Learningモデルはデータに対して非線形変換を複数の層で行うことで複雑な関数を学習することができる。
– この論文では、MKLアルゴリズムは一層の線形活性化関数を持つニューラルネットワークとして解釈できることを示している。
– この解釈に基づいて、Multi-layer Neural Network with Nonlinear Activation Functionsに拡張したNeural Generalization of Multiple Kernel Learning(NGMKL)を提案する。
– いくつかのベンチマーク実験によると、NGMKLはMKLアルゴリズムの複雑さを改善し、高い認識精度をもたらす。
要約(オリジナル)
Multiple Kernel Learning is a conventional way to learn the kernel function in kernel-based methods. MKL algorithms enhance the performance of kernel methods. However, these methods have a lower complexity compared to deep learning models and are inferior to these models in terms of recognition accuracy. Deep learning models can learn complex functions by applying nonlinear transformations to data through several layers. In this paper, we show that a typical MKL algorithm can be interpreted as a one-layer neural network with linear activation functions. By this interpretation, we propose a Neural Generalization of Multiple Kernel Learning (NGMKL), which extends the conventional multiple kernel learning framework to a multi-layer neural network with nonlinear activation functions. Our experiments on several benchmarks show that the proposed method improves the complexity of MKL algorithms and leads to higher recognition accuracy.
arxiv情報
| 著者 | Ahmad Navid Ghanizadeh,Kamaledin Ghiasi-Shirazi,Reza Monsefi,Mohammadreza Qaraei |
| 発行日 | 2023-05-04 14:51:54+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI