Dedicated Inference Engine and Binary-Weight Neural Networks for Lightweight Instance Segmentation

要約

組込みシステムの開発において、計算コストの削減は重要な課題である。重みを2値化し、活性度を量子化したバイナリ重みニューラルネットワーク(BNN)は、様々なアプリケーションの計算コストを削減するために採用されている。本論文では、2つの動作モードを持つ最新のBNNを扱うための推論エンジン用ハードウェアアーキテクチャの設計手法を提案する。乗算-累算(MAC)演算は、乗算演算をビット演算に置き換えることで簡略化できる。提案手法は、ハードウェアシステムから計算コストの一部を取り除くことで、推論エンジンのゲート数を効果的に削減できる。MAC演算のアーキテクチャは、BNNの推論結果を効率的に計算することが可能であり、関連する研究成果と比較して、ハードウェアコストはわずか52%である。この推論エンジンが実用的なアプリケーションに対応できることを示すために、SegNeXtのバックボーンとSparseInstのデコーダを組み合わせた2つの軽量ネットワークも提案する。軽量ネットワークの出力結果は、ビット演算と加算演算のみで計算される。提案する推論エンジンは、関連研究よりもハードウェアコストが低い。実験の結果、提案する推論エンジンは、提案するインスタンス分割ネットワークを扱うことができ、YOLACTと比較してモデルサイズが77.7$times$小さいにもかかわらず、「人物」カテゴリにおいてYOLACTよりも高い精度を達成することが示される。

要約(オリジナル)

Reducing computational costs is an important issue for development of embedded systems. Binary-weight Neural Networks (BNNs), in which weights are binarized and activations are quantized, are employed to reduce computational costs of various kinds of applications. In this paper, a design methodology of hardware architecture for inference engines is proposed to handle modern BNNs with two operation modes. Multiply-Accumulate (MAC) operations can be simplified by replacing multiply operations with bitwise operations. The proposed method can effectively reduce the gate count of inference engines by removing a part of computational costs from the hardware system. The architecture of MAC operations can calculate the inference results of BNNs efficiently with only 52% of hardware costs compared with the related works. To show that the inference engine can handle practical applications, two lightweight networks which combine the backbones of SegNeXt and the decoder of SparseInst for instance segmentation are also proposed. The output results of the lightweight networks are computed using only bitwise operations and add operations. The proposed inference engine has lower hardware costs than related works. The experimental results show that the proposed inference engine can handle the proposed instance-segmentation networks and achieves higher accuracy than YOLACT on the ‘Person’ category although the model size is 77.7$\times$ smaller compared with YOLACT.

arxiv情報

著者 Tse-Wei Chen,Wei Tao,Dongyue Zhao,Kazuhiro Mima,Tadayuki Ito,Kinya Osa,Masami Kato
発行日 2025-01-03 14:46:34+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AR, cs.CV パーマリンク