Ultra-low latency quantum-inspired machine learning predictors implemented on FPGA

要約

テンソル ネットワーク (TN) は、量子多体システムを表すために使用される計算パラダイムです。
最近の研究では、TN を機械学習 (ML) タスクの実行にも適用して、標準的な教師あり学習手法と同等の結果を得る方法が示されています。この研究では、高周波リアルタイムでのツリー テンソル ネットワーク (TTN) の使用を研究しています。
フィールド プログラマブル ゲート アレイ (FPGA) テクノロジの低レイテンシ ハードウェアを活用することにより、アプリケーションを実現します。
古典的な ML データセットおよび複雑な物理データに対して推論を実行できる TTN 分類器のさまざまな実装を紹介します。
結合次元と重み量子化の準備分析は、もつれエントロピーと相関測定とともにトレーニング フェーズで実現され、TTN アーキテクチャの選択の設定に役立ちます。
生成された TTN はハードウェア アクセラレータに展開されます。
サーバーに統合された FPGA を使用すると、TTN の推論が完全にオフロードされます。
最終的には、高エネルギー物理学 (HEP) アプリケーション用の分類器が実装され、マイクロ秒未満の遅延で完全にパイプライン化されて実行されます。

要約(オリジナル)

Tensor Networks (TNs) are a computational paradigm used for representing quantum many-body systems. Recent works have shown how TNs can also be applied to perform Machine Learning (ML) tasks, yielding comparable results to standard supervised learning techniques.In this work, we study the use of Tree Tensor Networks (TTNs) in high-frequency real-time applications by exploiting the low-latency hardware of the Field-Programmable Gate Array (FPGA) technology. We present different implementations of TTN classifiers, capable of performing inference on classical ML datasets as well as on complex physics data. A preparatory analysis of bond dimensions and weight quantization is realized in the training phase, together with entanglement entropy and correlation measurements, that help setting the choice of the TTN architecture. The generated TTNs are then deployed on a hardware accelerator; using an FPGA integrated into a server, the inference of the TTN is completely offloaded. Eventually, a classifier for High Energy Physics (HEP) applications is implemented and executed fully pipelined with sub-microsecond latency.

arxiv情報

著者 Lorenzo Borella,Alberto Coppi,Jacopo Pazzini,Andrea Stanco,Marco Trenti,Andrea Triossi,Marco Zanetti
発行日 2024-09-24 13:21:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, hep-ex, quant-ph パーマリンク