要約
yat プロダクトを利用したニューラル ネットワークであるニューラル マター ネットワーク (NMN) を紹介します。これは、活性化関数なしで非線形パターン認識を実現する深層学習の画期的な技術です。
私たちの主要なイノベーションは、yat-product と yat-product に依存しています。これは、入力を擬似計量空間に射影することで自然に非線形性を誘発し、最終的なクラス確率分布のソフトマックス層のみを維持しながら、従来の活性化関数の必要性を排除します。
このアプローチにより、ネットワーク アーキテクチャが簡素化され、ネットワークの意思決定プロセスに前例のない透明性が提供されます。
さまざまなデータセットにわたる包括的な経験的評価により、NMN が従来の MLP を常に上回るパフォーマンスを示しています。
この結果は、効果的な深層学習モデルには個別の活性化関数が必要であるという仮定に疑問を投げかけます。
この作業の意味は直接的なアーキテクチャ上の利点を超えて広がり、yat-MLP は非線形機能を維持しながら中間アクティベーション関数を排除することで、シンプルさと有効性を組み合わせたニューラル ネットワーク設計の新しいパラダイムを確立します。
最も重要なことは、私たちのアプローチは、ニューラル ネットワークの伝統的に不透明な「ブラック ボックス」の性質について前例のない洞察を提供し、これらのモデルがどのように情報を処理し分類するかについてのより明確な理解を提供します。
要約(オリジナル)
We introduce a yat-product-powered neural network, the Neural Matter Network (NMN), a breakthrough in deep learning that achieves non-linear pattern recognition without activation functions. Our key innovation relies on the yat-product and yat-product, which naturally induces non-linearity by projecting inputs into a pseudo-metric space, eliminating the need for traditional activation functions while maintaining only a softmax layer for final class probability distribution. This approach simplifies network architecture and provides unprecedented transparency into the network’s decision-making process. Our comprehensive empirical evaluation across different datasets demonstrates that NMN consistently outperforms traditional MLPs. The results challenge the assumption that separate activation functions are necessary for effective deep-learning models. The implications of this work extend beyond immediate architectural benefits, by eliminating intermediate activation functions while preserving non-linear capabilities, yat-MLP establishes a new paradigm for neural network design that combines simplicity with effectiveness. Most importantly, our approach provides unprecedented insights into the traditionally opaque ‘black-box’ nature of neural networks, offering a clearer understanding of how these models process and classify information.
arxiv情報
著者 | Taha Bouhsine |
発行日 | 2024-12-02 15:20:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google