Efficient Convolutional Neural Networks on Raspberry Pi for Image Classification

要約

コンピューター ビジョン (CV) の分野におけるディープ ラーニング アルゴリズムの優れたパフォーマンスにより、畳み込みニューラル ネットワーク (CNN) アーキテクチャは、コンピューター ビジョン タスクの主要なバックボーンになりました。
モバイル デバイスの普及に伴い、計算能力の低いプラットフォームに基づくニューラル ネットワーク モデルが徐々に注目されています。
ただし、コンピューティング能力の制限により、ディープ ラーニング アルゴリズムは通常、モバイル デバイスでは利用できません。
この論文では、Raspberry Pi 上で簡単に動作する軽量な畳み込みニューラル ネットワーク、TripleNet を提案します。
新しく提案されたネットワーク モデルは、ThreshNet のブロック接続の概念から採用され、ネットワーク モデルを圧縮および高速化し、ネットワークのパラメーターの量を削減し、精度を確保しながら各画像の推論時間を短縮します。
当社が提案する TripleNet およびその他の最先端 (SOTA) ニューラル ネットワークは、Raspberry Pi で CIFAR-10 および SVHN データセットを使用して画像分類実験を実行します。
実験結果は、GhostNet、MobileNet、ThreshNet、EfficientNet、および HarDNet と比較して、画像ごとの TripleNet の推論時間がそれぞれ 15%、16%、17%、24%、および 30% 短縮されることを示しています。
この作品の詳細コードは、https://github.com/RuiyangJu/TripleNet で入手できます。

要約(オリジナル)

With the good performance of deep learning algorithms in the field of computer vision (CV), the convolutional neural network (CNN) architecture has become a main backbone of the computer vision task. With the widespread use of mobile devices, neural network models based on platforms with low computing power are gradually being paid attention. However, due to the limitation of computing power, deep learning algorithms are usually not available on mobile devices. This paper proposes a lightweight convolutional neural network, TripleNet, which can operate easily on Raspberry Pi. Adopted from the concept of block connections in ThreshNet, the newly proposed network model compresses and accelerates the network model, reduces the amount of parameters of the network, and shortens the inference time of each image while ensuring the accuracy. Our proposed TripleNet and other state-of-the-art (SOTA) neural networks perform image classification experiments with the CIFAR-10 and SVHN datasets on Raspberry Pi. The experimental results show that, compared with GhostNet, MobileNet, ThreshNet, EfficientNet, and HarDNet, the inference time of TripleNet per image is shortened by 15%, 16%, 17%, 24%, and 30%, respectively. The detail codes of this work are available at https://github.com/RuiyangJu/TripleNet.

arxiv情報

著者 Rui-Yang Ju,Jen-Shiun Chiang,Jia-Hao Jian,Ting-Yu Lin
発行日 2022-10-13 14:17:01+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク