Fractional Concepts in Neural Networks: Enhancing Activation and Loss Functions

要約

この論文では、ニューラル ネットワークで分数概念を使用して活性化関数と損失関数を変更する方法を紹介します。
この方法論により、追加のハイパーパラメーターとしてトレーニング プロセスの分数導関数次数を決定することにより、ニューラル ネットワークがその活性化関数を定義および最適化できるようになります。
これにより、ネットワーク内のニューロンが活性化関数を調整して入力データとよりよく一致し、出力エラーを削減できるようになり、ネットワーク全体のパフォーマンスが向上する可能性があります。

要約(オリジナル)

The paper presents a method for using fractional concepts in a neural network to modify the activation and loss functions. The methodology allows the neural network to define and optimize its activation functions by determining the fractional derivative order of the training process as an additional hyperparameter. This will enable neurons in the network to adjust their activation functions to match input data better and reduce output errors, potentially improving the network’s overall performance.

arxiv情報

著者 Zahra Alijani,Vojtech Molek
発行日 2023-10-18 10:49:29+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.LG パーマリンク