要約
ここ数年、素粒子および原子核物理学のコミュニティから、ハードウェアでの機械学習 (ML) モデルの実装に大きな関心が寄せられ、その結果として進歩が見られました。
大きな推進力となったのは、Python パッケージ hls4ml のリリースです。これにより、転送レベル (RTL) コードを登録するために、Python ML ライブラリを使用して指定およびトレーニングされたモデルの移植が可能になりました。
これまでのところ、主な最終ターゲットは市販の FPGA または ASIC 上で合成されたカスタム ブロックでした。
ただし、オープンソースの組み込み FPGA (eFPGA) フレームワークの最近の開発により、ML モデルをハードウェアに実装するための、より柔軟な代替手段が提供されるようになりました。
これらのカスタマイズされた eFPGA ファブリックは、チップ全体の設計の一部として統合できます。
一般に、完全カスタム、eFPGA、または商用 FPGA ML 実装のどちらを実装するかは、最終用途のアプリケーションの詳細によって決まります。
この研究では、リソース効率に特に焦点を当てた中性子/ガンマ分類のタスクを使用して、完全接続ニューラル ネットワーク (fcNN) およびブースト決定木 (BDT) モデルの eFPGA 実装のパラメーター空間を調査しました。
この研究のトレーニング データとテスト データを生成するために、OnSemi J シリーズ SiPM に光学的に結合された Stilbene 上の AmBe 密閉光源インシデントを使用して収集されたデータを使用しました。
私たちは、リソースの合計使用量を追跡しながら、関連する入力機能、ビット解像度とサンプリング レートの影響、両方の ML アーキテクチャのハイパーパラメータのトレードオフを調査しました。
モデルの性能を追跡するために使用される性能指標は、10$^{-3}$ のガンマ線漏れにおける計算された中性子効率でした。
研究結果は、テストチップの一部として統合される eFPGA ファブリックの仕様を支援するために使用されます。
要約(オリジナル)
There has been considerable interest and resulting progress in implementing machine learning (ML) models in hardware over the last several years from the particle and nuclear physics communities. A big driver has been the release of the Python package, hls4ml, which has enabled porting models specified and trained using Python ML libraries to register transfer level (RTL) code. So far, the primary end targets have been commercial FPGAs or synthesized custom blocks on ASICs. However, recent developments in open-source embedded FPGA (eFPGA) frameworks now provide an alternate, more flexible pathway for implementing ML models in hardware. These customized eFPGA fabrics can be integrated as part of an overall chip design. In general, the decision between a fully custom, eFPGA, or commercial FPGA ML implementation will depend on the details of the end-use application. In this work, we explored the parameter space for eFPGA implementations of fully-connected neural network (fcNN) and boosted decision tree (BDT) models using the task of neutron/gamma classification with a specific focus on resource efficiency. We used data collected using an AmBe sealed source incident on Stilbene, which was optically coupled to an OnSemi J-series SiPM to generate training and test data for this study. We investigated relevant input features and the effects of bit-resolution and sampling rate as well as trade-offs in hyperparameters for both ML architectures while tracking total resource usage. The performance metric used to track model performance was the calculated neutron efficiency at a gamma leakage of 10$^{-3}$. The results of the study will be used to aid the specification of an eFPGA fabric, which will be integrated as part of a test chip.
arxiv情報
著者 | Jyothisraj Johnson,Billy Boxer,Tarun Prakash,Carl Grace,Peter Sorensen,Mani Tripathi |
発行日 | 2024-07-24 17:26:07+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google