要約
アナログ回路トポロジー合成は、電子設計自動化(EDA)に不可欠であり、特定の設計要件に合わせた回路構造の自動作成を可能にする。しかし、膨大な設計検索空間と厳格な制約の遵守が、効率的な合成を困難にしています。我々は、大規模言語モデル(LLM)の汎用性を活用し、アナログ回路自動合成のための新しい強化学習(RL)ベースのフレームワークであるAUTOCIRCUIT-RLを提案する。このフレームワークは、LLMが設計制約をエンコードした構造化プロンプトから回路トポロジを生成することを学習する命令チューニングと、妥当性、効率、出力電圧を評価する報酬モデルを用いて命令チューニングされたモデルをさらに改良するRL改良の2つのフェーズで動作する。改良されたモデルは、設計制約を満たすトポロジを生成するために直接使用される。実証結果によると、AUTOCIRCUIT-RLは最良のベースラインと比較して、有効な回路を約12%多く生成し、効率を約14%向上させるとともに、重複生成率を約38%削減しました。また、限られたトレーニングデータで有効な回路の合成に60%以上の成功を収め、強力な汎化性を実証しています。これらの結果は、効率と制約の順守を維持しながら複雑な回路に拡張するフレームワークの有効性を強調するものであり、AI駆動回路設計における重要な進歩を示すものである。
要約(オリジナル)
Analog circuit topology synthesis is integral to Electronic Design Automation (EDA), enabling the automated creation of circuit structures tailored to specific design requirements. However, the vast design search space and strict constraint adherence make efficient synthesis challenging. Leveraging the versatility of Large Language Models (LLMs), we propose AUTOCIRCUIT-RL,a novel reinforcement learning (RL)-based framework for automated analog circuit synthesis. The framework operates in two phases: instruction tuning, where an LLM learns to generate circuit topologies from structured prompts encoding design constraints, and RL refinement, which further improves the instruction-tuned model using reward models that evaluate validity, efficiency, and output voltage. The refined model is then used directly to generate topologies that satisfy the design constraints. Empirical results show that AUTOCIRCUIT-RL generates ~12% more valid circuits and improves efficiency by ~14% compared to the best baselines, while reducing duplicate generation rates by ~38%. It achieves over 60% success in synthesizing valid circuits with limited training data, demonstrating strong generalization. These findings highlight the framework’s effectiveness in scaling to complex circuits while maintaining efficiency and constraint adherence, marking a significant advancement in AI-driven circuit design.
arxiv情報
著者 | Prashanth Vijayaraghavan,Luyao Shi,Ehsan Degan,Vandana Mukherjee,Xin Zhang |
発行日 | 2025-06-03 17:54:30+00:00 |
arxivサイト | arxiv_id(pdf) |