Comparative Analysis of FPGA and GPU Performance for Machine Learning-Based Track Reconstruction at LHCb

要約

高エネルギー物理学では、大規模なハドロンコリダーでの光度と検出器の粒度の増加により、より効率的なデータ処理ソリューションの必要性が促進されています。
機械学習は、検出器のヒットを伴う潜在的に線形計算スケーリングのため、荷電粒子トラックを再構築するための有望なツールとして浮上しています。
GPUのLHCB実験の最初のレベルトリガーにおけるグラフニューラルネットワークベースのトラック再構築パイプラインの最近の実装は、高エネルギー物理学のコンテキストでの計算アーキテクチャ間の比較研究のためのプラットフォームとして機能します。
このホワイトペーパーでは、FPGAとGPUの間のMLモデル推論のスループットの新しい比較を示し、トラック再構成パイプライン$ \ Unicode {x2013} $の最初のステップに焦点を当てて、マルチレイヤーパーセプトロンの実装です。
FPGA展開にHLS4MLを使用して、GPUの実装に対するパフォーマンスをベンチマークし、FPGA開発の専門知識を必要とせずに、高スループットの低遅延性推論のFPGAの可能性を実証します。

要約(オリジナル)

In high-energy physics, the increasing luminosity and detector granularity at the Large Hadron Collider are driving the need for more efficient data processing solutions. Machine Learning has emerged as a promising tool for reconstructing charged particle tracks, due to its potentially linear computational scaling with detector hits. The recent implementation of a graph neural network-based track reconstruction pipeline in the first level trigger of the LHCb experiment on GPUs serves as a platform for comparative studies between computational architectures in the context of high-energy physics. This paper presents a novel comparison of the throughput of ML model inference between FPGAs and GPUs, focusing on the first step of the track reconstruction pipeline$\unicode{x2013}$an implementation of a multilayer perceptron. Using HLS4ML for FPGA deployment, we benchmark its performance against the GPU implementation and demonstrate the potential of FPGAs for high-throughput, low-latency inference without the need for an expertise in FPGA development and while consuming significantly less power.

arxiv情報

著者 Fotis I. Giasemis,Vladimir Lončar,Bertrand Granado,Vladimir Vava Gligorov
発行日 2025-04-30 10:18:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.DC, cs.LG, hep-ex, physics.ins-det パーマリンク