要約
このホワイトペーパーでは、非MAC(浮動小数点MultiplyACcumulate操作なし)ディープニューラルネット(浮動小数点MultiplyACcumulate操作なし)を活用してエッジでリアルタイムの再構成を実行できる低SWaP組み込みハードウェアを使用した、戦術エッジでのHyper-Dimensional Reconfigurable Analytics(HyDRATE)を紹介します。
DNN)超次元(HD)コンピューティングアクセラレータと組み合わせます。
アルゴリズム、トレーニングされた量子化モデルの生成、および積和演算のない特徴抽出器のシミュレートされたパフォーマンスについて説明します。
次に、ハイパーディメンションの数とともにパフォーマンスがどのように向上するかを示します。
従来のDNNと比較して実現された低SWaPFPGAハードウェアおよび組み込みソフトウェアシステムについて説明し、実装されたハードウェアアクセラレータについて詳しく説明します。
測定されたシステムの遅延と電力、学習可能な量子化とHDコンピューティングの使用によるノイズの堅牢性、ビデオアクティビティ分類タスクの実際のシステムパフォーマンスとシミュレートされたシステムパフォーマンス、およびこの同じデータセットでの再構成のデモンストレーションについて説明します。
フィールドでの再構成可能性は、エッジでの新しいクラスの数ショット学習を使用して、勾配降下バックプロパゲーション(勾配なし)なしでフィードフォワードHD分類器のみを再トレーニングすることによって達成されることを示します。
実行された最初の作業ではLRCNDNNが使用されていましたが、現在はパフォーマンスが向上した2ストリームDNNを使用するように拡張されています。
要約(オリジナル)
In this paper we present Hyper-Dimensional Reconfigurable Analytics at the Tactical Edge (HyDRATE) using low-SWaP embedded hardware that can perform real-time reconfiguration at the edge leveraging non-MAC (free of floating-point MultiplyACcumulate operations) deep neural nets (DNN) combined with hyperdimensional (HD) computing accelerators. We describe the algorithm, trained quantized model generation, and simulated performance of a feature extractor free of multiply-accumulates feeding a hyperdimensional logic-based classifier. Then we show how performance increases with the number of hyperdimensions. We describe the realized low-SWaP FPGA hardware and embedded software system compared to traditional DNNs and detail the implemented hardware accelerators. We discuss the measured system latency and power, noise robustness due to use of learnable quantization and HD computing, actual versus simulated system performance for a video activity classification task and demonstration of reconfiguration on this same dataset. We show that reconfigurability in the field is achieved by retraining only the feed-forward HD classifier without gradient descent backpropagation (gradient-free), using few-shot learning of new classes at the edge. Initial work performed used LRCN DNN and is currently extended to use Two-stream DNN with improved performance.
arxiv情報
著者 | Indhumathi Kandaswamy,Saurabh Farkya,Zachary Daniels,Gooitzen van der Wal,Aswin Raghavan,Yuzheng Zhang,Jun Hu,Michael Lomnitz,Michael Isnardi,David Zhang,Michael Piacentino |
発行日 | 2022-06-10 14:08:41+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google