要約
将来のアルゴリズムは、機械学習研究で進化し、実際のアプリケーションを模倣するより複雑なタスクに取り組んでいます。
過去数年間、元のバージョンよりも優れたパフォーマンスを発揮するためのいくつかの手法によって改善され、柔軟性と低いメモリの使用量を失うことなく、CIFAR10のような挑戦的なデータセットを処理しました。
結果では、テストエラーの割合が20 \%減少するトレーニング中に、畳み込みチャネルのグループ化、学習レートスケジュール、および独立したブロック構造の組み合わせによって改善が達成されることを示しました。
さらに、低容量ハードウェアプロジェクトのさらなる実装にアプローチするために、164,706から754,386の間に(21 $ \ PM $ 6)\%内(21 $ \ pm $ 6)\%内で低いテストエラー率を達成する一連の軽量モデルを提示しました。
これは、これらの種類のニューラルネットワークの完全な検証と検証に関する将来の研究の基礎としても機能します。
要約(オリジナル)
The Forward-Forward algorithm has evolved in machine learning research, tackling more complex tasks that mimic real-life applications. In the last years, it has been improved by several techniques to perform better than its original version, handling a challenging dataset like CIFAR10 without losing its flexibility and low memory usage. We have shown in our results that improvements are achieved through a combination of convolutional channel grouping, learning rate schedules, and independent block structures during training that lead to a 20\% decrease in test error percentage. Additionally, to approach further implementations on low-capacity hardware projects we have presented a series of lighter models that achieve low test error percentages within (21$\pm$6)\% and number of trainable parameters between 164,706 and 754,386. This serving also as a basis for our future study on complete verification and validation of these kinds of neural networks.
arxiv情報
著者 | Mauricio Ortiz Torres,Markus Lange,Arne P. Raulf |
発行日 | 2025-04-30 14:03:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google