要約
タイトル:HARFLOW3D: FPGAデバイス上でのHARに適したレイテンシ志向の3D-CNNアクセラレータツールフロー
要約:
– 3D畳み込みニューラルネットワークは、Human Action Recognition (HAR)タスクにおいて効果的であり、最先端の結果を達成している。
– この研究は、そのようなモデルをFPGAにマッピングするための新しいストリーミングアーキテクチャベースのツールフローを紹介する。
– HARFLOW3Dツールフローは、3D CNNをONNX形式で入力として受け取り、FPGAデバイスの特性とモデルの固有の特徴を考慮して、計算のレイテンシを最小化する設計を生成する。
– ツールフローには、3D CNNパーサー、パフォーマンスおよびリソースモデル、3Dモデルを生成されたハードウェア上で実行するためのスケジューリングアルゴリズム、3Dモデルに特化したリソース意識の最適化エンジン、FPGAの合成可能なコードへの自動マッピングなど、多数のパーツが含まれる。
– HARFLOW3Dツールフローは、さまざまな3D CNNおよびFPGAシステムペアについてのいくつかの実験を通じて、広範囲のモデルとデバイスをサポートする能力を示している。
– さらに、ツールフローは、FPGAにマッピングされていない3D CNNモデルに対しても高性能な結果を示すことができ、この分野でFPGAベースのシステムの可能性を示している。
– 全体として、HARFLOW3Dは、競合するレイテンシに対して、最先端の手作りアプローチと比較して最大5倍のパフォーマンスを達成する能力を示している。
要約(オリジナル)
For Human Action Recognition tasks (HAR), 3D Convolutional Neural Networks have proven to be highly effective, achieving state-of-the-art results. This study introduces a novel streaming architecture based toolflow for mapping such models onto FPGAs considering the model’s inherent characteristics and the features of the targeted FPGA device. The HARFLOW3D toolflow takes as input a 3D CNN in ONNX format and a description of the FPGA characteristics, generating a design that minimizes the latency of the computation. The toolflow is comprised of a number of parts, including i) a 3D CNN parser, ii) a performance and resource model, iii) a scheduling algorithm for executing 3D models on the generated hardware, iv) a resource-aware optimization engine tailored for 3D models, v) an automated mapping to synthesizable code for FPGAs. The ability of the toolflow to support a broad range of models and devices is shown through a number of experiments on various 3D CNN and FPGA system pairs. Furthermore, the toolflow has produced high-performing results for 3D CNN models that have not been mapped to FPGAs before, demonstrating the potential of FPGA-based systems in this space. Overall, HARFLOW3D has demonstrated its ability to deliver competitive latency compared to a range of state-of-the-art hand-tuned approaches being able to achieve up to 5$\times$ better performance compared to some of the existing works.
arxiv情報
著者 | Petros Toupas,Alexander Montgomerie-Corcoran,Christos-Savvas Bouganis,Dimitrios Tzovaras |
発行日 | 2023-04-10 09:08:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, OpenAI