要約
ニューラルネットワーク(NN)ベースのトランジスタコンパクトモデリングは、デバイスモデリングとスパイス回路シミュレーションを加速するための変換ソリューションとして最近浮上しています。
ただし、従来のNNアーキテクチャは、最先端の方法で広く採用されているにもかかわらず、主にブラックボックスの問題ソルバーとして機能しています。
この解釈可能性の欠如は、学習したデータパターンに意味のある洞察を抽出して伝える能力を大幅に制限し、重要なモデリングタスクにおけるより広範な採用に大きな障壁をもたらします。
この作業では、トランジスタのためにコルモゴロフアーノルドネットワーク(KAN)を初めて紹介します。これは、物理ベースの機能モデリングにおける解釈可能性を高精度とシームレスに統合する画期的なNNアーキテクチャです。
FinfetコンパクトモデリングのKanとForier Kanのパフォーマンスを体系的に評価し、ゴールデン産業標準のコンパクトモデルと広く使用されているMLPアーキテクチャに対してベンチマークを付けます。
我々の結果は、KanとFkanがゲート電流、排水料金、ソースチャージなど、重要なメリットの数値に対して一貫して優れた予測精度を達成することを明らかにしています。
さらに、学習されたデータパターンからシンボリック式を導き出すKanのユニークな能力を実証および改善します。これは、解釈可能性を向上させるだけでなく、詳細なトランジスタ分析と最適化を促進する機能です。
この作業は、NN駆動のトランジスタコンパクトモデリングにおける解釈可能性と精度のギャップを埋めることにおけるKanの変換の可能性を強調しています。
トランジスタモデリングに堅牢で透明なアプローチを提供することにより、Kanは高度なテクノロジースケーリングの課題をナビゲートする際に、半導体業界にとって極めて重要な進歩を表しています。
要約(オリジナル)
Neural network (NN)-based transistor compact modeling has recently emerged as a transformative solution for accelerating device modeling and SPICE circuit simulations. However, conventional NN architectures, despite their widespread adoption in state-of-the-art methods, primarily function as black-box problem solvers. This lack of interpretability significantly limits their capacity to extract and convey meaningful insights into learned data patterns, posing a major barrier to their broader adoption in critical modeling tasks. This work introduces, for the first time, Kolmogorov-Arnold network (KAN) for the transistor – a groundbreaking NN architecture that seamlessly integrates interpretability with high precision in physics-based function modeling. We systematically evaluate the performance of KAN and Fourier KAN for FinFET compact modeling, benchmarking them against the golden industry-standard compact model and the widely used MLP architecture. Our results reveal that KAN and FKAN consistently achieve superior prediction accuracy for critical figures of merit, including gate current, drain charge, and source charge. Furthermore, we demonstrate and improve the unique ability of KAN to derive symbolic formulas from learned data patterns – a capability that not only enhances interpretability but also facilitates in-depth transistor analysis and optimization. This work highlights the transformative potential of KAN in bridging the gap between interpretability and precision in NN-driven transistor compact modeling. By providing a robust and transparent approach to transistor modeling, KAN represents a pivotal advancement for the semiconductor industry as it navigates the challenges of advanced technology scaling.
arxiv情報
著者 | Rodion Novkin,Hussam Amrouch |
発行日 | 2025-03-19 13:49:50+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google