HARFLOW3D: A Latency-Oriented 3D-CNN Accelerator Toolflow for HAR on FPGA Devices

要約

【タイトル】FPGAデバイス上でのHARのためのレイテンシ指向3D-CNNアクセラレータツールフロー、HARFLOW3D

【要約】

– 3D畳み込みニューラルネットワーク(CNN)は、人間の行動認識タスク(HAR)において、最先端の結果を達成することが証明されている。
– この研究は、モデルの固有の特性と対象とするFPGAデバイスの特徴を考慮した、新しいストリーミングアーキテクチャベースのツールフローを提案する。
– HARFLOW3Dツールフローは、3D CNNをONNX形式で入力し、FPGA特性の説明を行い、計算のレイテンシを最小化する設計を生成する。
– ツールフローはいくつかのパートで構成されており、i)3D CNNパーサー、ii)パフォーマンスおよびリソースモデル、iii)生成されたハードウェア上で3Dモデルを実行するためのスケジューリングアルゴリズム、iv)3Dモデルに特化したリソース意識の最適化エンジン、v)FPGA用の合成可能コードへの自動マッピングが含まれる。
– ツールフローは、様々な3D CNNおよびFPGAシステムペアでの幅広いモデルとデバイスのサポート能力を示している。
– さらに、FPGAにマップされていない3D CNNモデルでも、高性能な結果を出すことができ、FPGAベースのシステムの可能性を示した。
– HARFLOW3Dは、既存の手動最適化手法と比較して、競争的なレイテンシを提供する能力を示し、一部の既存の研究と比較して、5倍の高性能を発揮することができる。

要約(オリジナル)

For Human Action Recognition tasks (HAR), 3D Convolutional Neural Networks have proven to be highly effective, achieving state-of-the-art results. This study introduces a novel streaming architecture based toolflow for mapping such models onto FPGAs considering the model’s inherent characteristics and the features of the targeted FPGA device. The HARFLOW3D toolflow takes as input a 3D CNN in ONNX format and a description of the FPGA characteristics, generating a design that minimizes the latency of the computation. The toolflow is comprised of a number of parts, including i) a 3D CNN parser, ii) a performance and resource model, iii) a scheduling algorithm for executing 3D models on the generated hardware, iv) a resource-aware optimization engine tailored for 3D models, v) an automated mapping to synthesizable code for FPGAs. The ability of the toolflow to support a broad range of models and devices is shown through a number of experiments on various 3D CNN and FPGA system pairs. Furthermore, the toolflow has produced high-performing results for 3D CNN models that have not been mapped to FPGAs before, demonstrating the potential of FPGA-based systems in this space. Overall, HARFLOW3D has demonstrated its ability to deliver competitive latency compared to a range of state-of-the-art hand-tuned approaches being able to achieve up to 5$\times$ better performance compared to some of the existing works.

arxiv情報

著者 Petros Toupas,Alexander Montgomerie-Corcoran,Christos-Savvas Bouganis,Dimitrios Tzovaras
発行日 2023-03-30 08:25:27+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AR, cs.CV, cs.LG パーマリンク