要約
監視されていないグラフ表現学習を備えた事前削除モデルは、ソーシャルネットワーク分析、分子設計、電子設計自動化(EDA)などのドメインの大幅な進歩をもたらしました。
ただし、EDAでの以前の作業は、主にデジタル回路の事前削除モデルに焦点を当てており、アナログと混合シグナル回路を見下ろしています。
このギャップを埋めるために、アナログサーキットとデジタル回路の両方でグラフレベルの予測タスクに合わせて特別に調整された自己監視学習を介して前処理された最初のグラフニューラルネットワーク(GNN)であるデバイスレベルの統合サーキットエンコーダーであるサイコロを紹介します。
サイコロは、グラフのコントラスト学習に基づいてシミュレーションのない事前削除アプローチを採用し、2つの新しいグラフ増強技術を活用します。
実験結果は、3つのダウンストリームタスクにわたって大幅なパフォーマンスの改善を示し、アナログサーキットとデジタル回路の両方のサイコロの有効性を強調しています。
コードはgithub.com/brianlsy98/diceで入手できます。
要約(オリジナル)
Pretraining models with unsupervised graph representation learning has led to significant advancements in domains such as social network analysis, molecular design, and electronic design automation (EDA). However, prior work in EDA has mainly focused on pretraining models for digital circuits, overlooking analog and mixed-signal circuits. To bridge this gap, we introduce DICE, a Device-level Integrated Circuits Encoder, which is the first graph neural network (GNN) pretrained via self-supervised learning specifically tailored for graph-level prediction tasks in both analog and digital circuits. DICE adopts a simulation-free pretraining approach based on graph contrastive learning, leveraging two novel graph augmentation techniques. Experimental results demonstrate substantial performance improvements across three downstream tasks, highlighting the effectiveness of DICE for both analog and digital circuits. The code is available at github.com/brianlsy98/DICE.
arxiv情報
著者 | Sungyoung Lee,Ziyi Wang,Seunggeun Kim,Taekyun Lee,Yao Lai,David Z. Pan |
発行日 | 2025-05-19 17:23:05+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google