Automation of Quantum Dot Measurement Analysis via Explainable Machine Learning

要約

量子コンピューティング用の量子ドット (QD) デバイスの急速な開発により、デバイスの特性評価と調整のためのより効率的で自動化された方法が必要になりました。
この研究は、説明可能な機械学習技術を量子ドット測定の分析に適用する実現可能性と利点を実証し、自動化された透過的な量子ドットデバイス調整のさらなる進歩への道を開きます。
調整プロセス中に取得される測定値の多くは画像の形式で提供され、後続の調整ステップを導くために適切に分析する必要があります。
設計上、このような画像に存在する特徴は、測定された QD デバイスの特定の動作または状態を捕捉します。
慎重に検討すると、このような機能は QD デバイスの制御と校正に役立ちます。
このような画像の重要な例は、いわゆる $\textit{三角プロット}$ です。これは、電流の流れを視覚的に表し、QD デバイスのキャリブレーションに重要な特性を明らかにします。
畳み込みニューラル ネットワーク (CNN) などの画像ベースの分類ツールは、特定の測定値が $\textit{good}$ であるかどうかを検証するために使用でき、調整の次の段階の開始を保証するものではありませんが、それらは何も提供しません。
$\textit{bad}$ 画像の場合にデバイスをどのように調整する必要があるかについての洞察。
これは、CNN が高精度を実現するために予測とモデルの明瞭性を犠牲にするためです。
このトレードオフを改善するために、最近の研究では、ガボール ウェーブレット変換に依存する画像ベクトル化アプローチが導入されました (Schug $\textit{et al.}$ 2024 $\textit{Proc. XAI4Sci: Explainable Machine Learning for Sciences Workshop (AAAI)
2024) (カナダ、バンクーバー)}$ pp 1-6)。
ここでは、実験データを模倣する合成三角形の数学的モデリングを含む代替ベクトル化方法を提案します。
説明可能なブースティング マシンを使用して、この新しい方法が精度を犠牲にすることなくモデル予測の優れた説明可能性を提供することを示します。

要約(オリジナル)

The rapid development of quantum dot (QD) devices for quantum computing has necessitated more efficient and automated methods for device characterization and tuning. This work demonstrates the feasibility and advantages of applying explainable machine learning techniques to the analysis of quantum dot measurements, paving the way for further advances in automated and transparent QD device tuning. Many of the measurements acquired during the tuning process come in the form of images that need to be properly analyzed to guide the subsequent tuning steps. By design, features present in such images capture certain behaviors or states of the measured QD devices. When considered carefully, such features can aid the control and calibration of QD devices. An important example of such images are so-called $\textit{triangle plots}$, which visually represent current flow and reveal characteristics important for QD device calibration. While image-based classification tools, such as convolutional neural networks (CNNs), can be used to verify whether a given measurement is $\textit{good}$ and thus warrants the initiation of the next phase of tuning, they do not provide any insights into how the device should be adjusted in the case of $\textit{bad}$ images. This is because CNNs sacrifice prediction and model intelligibility for high accuracy. To ameliorate this trade-off, a recent study introduced an image vectorization approach that relies on the Gabor wavelet transform (Schug $\textit{et al.}$ 2024 $\textit{Proc. XAI4Sci: Explainable Machine Learning for Sciences Workshop (AAAI 2024) (Vancouver, Canada)}$ pp 1-6). Here we propose an alternative vectorization method that involves mathematical modeling of synthetic triangles to mimic the experimental data. Using explainable boosting machines, we show that this new method offers superior explainability of model prediction without sacrificing accuracy.

arxiv情報

著者 Daniel Schug,Tyler J. Kovach,M. A. Wolfe,Jared Benson,Sanghyeok Park,J. P. Dodson,J. Corrigan,M. A. Eriksson,Justyna P. Zwolak
発行日 2025-01-13 16:21:58+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mes-hall, cs.CV, cs.LG パーマリンク