IR-Aware ECO Timing Optimization Using Reinforcement Learning

要約

後期段階のエンジニアリング変更オーダー (ECO) では、過度の IR 低下によるタイミング シフトから回復するために最小限の設計修正が行われます。
この論文では、強化学習 (RL) を使用した IR ドロップ対応タイミング解析と ECO タイミング最適化を統合します。
この方法は、物理設計と電力網合成後に実行され、ゲート サイジングを通じて IR ドロップによるタイミング劣化を修正します。
これは、ラグランジュ緩和 (LR) 手法を新しい RL フレームワークに組み込んでおり、リレーショナル グラフ畳み込みネットワーク (R-GCN) エージェントをトレーニングして、タイミング違反を修正するためにゲートのサイズを順番に調整します。
R-GCN エージェントは、古典的な LR のみのアルゴリズムよりも優れたパフォーマンスを発揮します。オープン 45nm テクノロジーでは、(a) 遅延領域のトレードオフ曲線のパレート フロントを左に移動し、(b) 高速に実行することで従来の方法よりも実行時間を節約します。
等品質のトレーニング済みモデルを使用した推論。
RL モデルは、タイミング仕様間で移行可能であり、ゼロショット学習または微調整により未確認のデザインにも移行可能です。

要約(オリジナル)

Engineering change orders (ECOs) in late stages make minimal design fixes to recover from timing shifts due to excessive IR drops. This paper integrates IR-drop-aware timing analysis and ECO timing optimization using reinforcement learning (RL). The method operates after physical design and power grid synthesis, and rectifies IR-drop-induced timing degradation through gate sizing. It incorporates the Lagrangian relaxation (LR) technique into a novel RL framework, which trains a relational graph convolutional network (R-GCN) agent to sequentially size gates to fix timing violations. The R-GCN agent outperforms a classical LR-only algorithm: in an open 45nm technology, it (a) moves the Pareto front of the delay-area tradeoff curve to the left and (b) saves runtime over the classical method by running fast inference using trained models at iso-quality. The RL model is transferable across timing specifications, and transferable to unseen designs with zero-shot learning or fine tuning.

arxiv情報

著者 Vidya A. Chhabria,Wenjing Jiang,Sachin S. Sapatnekar
発行日 2024-02-12 16:47:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.LG パーマリンク