The prediction of the quality of results in Logic Synthesis using Transformer and Graph Neural Networks

要約

論理合成段階では、合成ツールの構造変換を最適化シーケンスに結合し、指定された回路面積と遅延を満たすように回路に作用させる必要があります。
ただし、論理合成最適化シーケンスの実行には時間がかかるため、回路の合成最適化シーケンスに対する結果の品質 (QoR) を予測することは、エンジニアがより良い最適化シーケンスをより迅速に見つけるのに役立ちます。
この研究では、目に見えない回路最適化シーケンスのペアの QoR を予測するための深層学習手法を提案します。
具体的には、構造変換は埋め込み手法によってベクトルに変換され、高度な自然言語処理 (NLP) テクノロジー (Transformer) を使用して最適化シーケンスの特徴が抽出されます。
さらに、モデルの予測プロセスを回路ごとに一般化できるようにするために、回路のグラフ表現は隣接行列と特徴行列として表されます。
回路の構造的特徴を抽出するためにグラフニューラルネットワーク(GNN)が使用されます。
この問題には、Transformer と 3 つの典型的な GNN が使用されます。
さらに、Transformer と GNN は、目に見えない回路最適化シーケンスの QoR 予測のための共同学習ポリシーとして採用されています。
Transformer と GNN の組み合わせから得られるメソッドがベンチマークされます。
実験結果は、Transformer と GraphSage の共同学習が最良の結果をもたらすことを示しています。
予測結果の平均絶対誤差 (MAE) は 0.412 です。

要約(オリジナル)

In the logic synthesis stage, structure transformations in the synthesis tool need to be combined into optimization sequences and act on the circuit to meet the specified circuit area and delay. However, logic synthesis optimization sequences are time-consuming to run, and predicting the quality of the results (QoR) against the synthesis optimization sequence for a circuit can help engineers find a better optimization sequence faster. In this work, we propose a deep learning method to predict the QoR of unseen circuit-optimization sequences pairs. Specifically, the structure transformations are translated into vectors by embedding methods and advanced natural language processing (NLP) technology (Transformer) is used to extract the features of the optimization sequences. In addition, to enable the prediction process of the model to be generalized from circuit to circuit, the graph representation of the circuit is represented as an adjacency matrix and a feature matrix. Graph neural networks(GNN) are used to extract the structural features of the circuits. For this problem, the Transformer and three typical GNNs are used. Furthermore, the Transformer and GNNs are adopted as a joint learning policy for the QoR prediction of the unseen circuit-optimization sequences. The methods resulting from the combination of Transformer and GNNs are benchmarked. The experimental results show that the joint learning of Transformer and GraphSage gives the best results. The Mean Absolute Error (MAE) of the predicted result is 0.412.

arxiv情報

著者 Chenghao Yang,Zhongda Wang,Yinshui Xia,Zhufei Chu
発行日 2023-08-21 15:00:03+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AR, cs.LG パーマリンク