Less is More: Hop-Wise Graph Attention for Scalable and Generalizable Learning on Circuits

要約

グラフ・ニューラル・ネットワーク(GNN)は、様々な電子設計自動化(EDA)タスクにおける回路表現の学習用として人気を博しているが、大規模なグラフに適用した場合のスケーラビリティに課題があり、新しい設計への一般化には限界がある。これらの制限により、大規模で複雑な回路問題を扱うには実用的でない。本研究では、スケーラブルかつ一般化可能な方法で回路表現を学習するための新しい注意ベースのモデルであるHOGAを提案する。HOGAはまず、モデル学習の前にノード毎にホップ単位の特徴を計算する。HOGAは、グラフトポロジーに関与することなく、異なるホップ間の重要な特徴を適応的に学習するゲーテッド自己注意モジュールを通して、ホップ単位の特徴のみを用いてノード表現を生成する。その結果、HOGAは異なる回路間の様々な構造に適応し、分散方式で効率的に学習することができる。HOGAの有効性を実証するために、2つの代表的なEDAタスクであるQoR(Quality of Results)予測と機能推論を考える。実験結果から、(1)論理合成後のQoR予測において、HOGAは従来のGNNよりも推定誤差を46.76%削減する。(2)複雑な技術マッピング後の未見ゲートレベルネットリスト上の機能ブロックの特定において、HOGAはGNNよりも推論精度を10.0%改善する。

要約(オリジナル)

While graph neural networks (GNNs) have gained popularity for learning circuit representations in various electronic design automation (EDA) tasks, they face challenges in scalability when applied to large graphs and exhibit limited generalizability to new designs. These limitations make them less practical for addressing large-scale, complex circuit problems. In this work we propose HOGA, a novel attention-based model for learning circuit representations in a scalable and generalizable manner. HOGA first computes hop-wise features per node prior to model training. Subsequently, the hop-wise features are solely used to produce node representations through a gated self-attention module, which adaptively learns important features among different hops without involving the graph topology. As a result, HOGA is adaptive to various structures across different circuits and can be efficiently trained in a distributed manner. To demonstrate the efficacy of HOGA, we consider two representative EDA tasks: quality of results (QoR) prediction and functional reasoning. Our experimental results indicate that (1) HOGA reduces estimation error over conventional GNNs by 46.76% for predicting QoR after logic synthesis; (2) HOGA improves 10.0% reasoning accuracy over GNNs for identifying functional blocks on unseen gate-level netlists after complex technology mapping; (3) The training time for HOGA almost linearly decreases with an increase in computing resources.

arxiv情報

著者 Chenhui Deng,Zichao Yue,Cunxi Yu,Gokce Sarar,Ryan Carey,Rajeev Jain,Zhiru Zhang
発行日 2024-03-02 21:33:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AR, cs.LG パーマリンク