要約
テンソル ネットワーク (TN) は、量子多体システムを表すために使用される計算パラダイムです。
最近の研究では、TN を機械学習 (ML) タスクの実行にも適用して、標準的な教師あり学習手法と同等の結果を得る方法が示されています。
この研究では、フィールド プログラマブル ゲート アレイ (FPGA) テクノロジの低遅延ハードウェアを活用することにより、高周波数リアルタイム アプリケーションでのツリー テンソル ネットワーク (TTN) の使用を研究します。
古典的な ML データセットおよび複雑な物理データに対して推論を実行できる TTN 分類器のさまざまな実装を紹介します。
結合次元と重み量子化の準備分析は、もつれエントロピーと相関測定とともにトレーニング フェーズで実現され、TTN アーキテクチャの選択の設定に役立ちます。
生成された TTN はハードウェア アクセラレータに展開されます。
サーバーに統合された FPGA を使用すると、TTN の推論が完全にオフロードされます。
最終的には、高エネルギー物理学 (HEP) アプリケーション用の分類器が実装され、マイクロ秒未満の遅延で完全にパイプライン化されて実行されます。
要約(オリジナル)
Tensor Networks (TNs) are a computational paradigm used for representing quantum many-body systems. Recent works have shown how TNs can also be applied to perform Machine Learning (ML) tasks, yielding comparable results to standard supervised learning techniques. In this work, we study the use of Tree Tensor Networks (TTNs) in high-frequency real-time applications by exploiting the low-latency hardware of the Field-Programmable Gate Array (FPGA) technology. We present different implementations of TTN classifiers, capable of performing inference on classical ML datasets as well as on complex physics data. A preparatory analysis of bond dimensions and weight quantization is realized in the training phase, together with entanglement entropy and correlation measurements, that help setting the choice of the TTN architecture. The generated TTNs are then deployed on a hardware accelerator; using an FPGA integrated into a server, the inference of the TTN is completely offloaded. Eventually, a classifier for High Energy Physics (HEP) applications is implemented and executed fully pipelined with sub-microsecond latency.
arxiv情報
著者 | Lorenzo Borella,Alberto Coppi,Jacopo Pazzini,Andrea Stanco,Marco Trenti,Andrea Triossi,Marco Zanetti |
発行日 | 2024-09-25 08:59:26+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google