要約
パターン認識の分野では、高い精度を達成することが不可欠です。
さまざまな複雑な画像を認識するようにモデルをトレーニングする際、可能な限り最高の精度を達成するためにモデルを微調整することが重要です。
モデルを微調整するための 1 つの戦略には、その活性化関数を変更することが含まれます。
ほとんどの事前トレーニング済みモデルはデフォルトの活性化関数として ReLU を使用しますが、Hard-Swish のような別の活性化関数に切り替えると有益な場合があります。
この研究では、さまざまな画像データセットにわたって ReLU、Swish、および Hard-Swish 活性化関数を使用してモデルのパフォーマンスを評価します。
結果は、CIFAR-10 データセットのモデルの精度が 2.06% 向上し、ATLAS データセットのモデルの精度が 0.30% 向上したことを示しています。
事前トレーニングされたモデルのアーキテクチャ内の活性化関数を変更すると、全体的な精度が向上します。
要約(オリジナル)
In the field of pattern recognition, achieving high accuracy is essential. While training a model to recognize different complex images, it is vital to fine-tune the model to achieve the highest accuracy possible. One strategy for fine-tuning a model involves changing its activation function. Most pre-trained models use ReLU as their default activation function, but switching to a different activation function like Hard-Swish could be beneficial. This study evaluates the performance of models using ReLU, Swish and Hard-Swish activation functions across diverse image datasets. Our results show a 2.06% increase in accuracy for models on the CIFAR-10 dataset and a 0.30% increase in accuracy for models on the ATLAS dataset. Modifying the activation functions in architecture of pre-trained models lead to improved overall accuracy.
arxiv情報
著者 | Sai Abhinav Pydimarry,Shekhar Madhav Khairnar,Sofia Garces Palacios,Ganesh Sankaranarayanan,Darian Hoagland,Dmitry Nepomnayshy,Huu Phong Nguyen |
発行日 | 2024-10-09 13:43:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google