要約
この記事では、現在の機械学習文献における従来の手法とは異なる、最小二乗法とニューラル ネットワーク回帰モデルの数学的開発に対する新しいアプローチを紹介します。
テンソル解析と基本的な行列計算を活用することで、両方のモデルの理論的基礎が細心の注意を払って詳細に説明され、完全なアルゴリズム形式にまで拡張されます。
この研究は、ニューラル ネットワーク用バックプロパゲーション アルゴリズムの合理化バージョンを含む 3 つのアルゴリズムの提示で最高潮に達し、この新しい数学的アプローチの利点を示しています。
要約(オリジナル)
This article introduces a novel approach to the mathematical development of Ordinary Least Squares and Neural Network regression models, diverging from traditional methods in current Machine Learning literature. By leveraging Tensor Analysis and fundamental matrix computations, the theoretical foundations of both models are meticulously detailed and extended to their complete algorithmic forms. The study culminates in the presentation of three algorithms, including a streamlined version of the Backpropagation Algorithm for Neural Networks, illustrating the benefits of this new mathematical approach.
arxiv情報
著者 | Roberto Dias Algarte |
発行日 | 2025-01-02 14:03:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google