要約
過去 10 年にわたり、イオン トラップ量子コンピューティング コミュニティでは、トラップされたイオン量子ビットの光学的アドレス指定のための集積シリコン フォトニクス (SiPh) 回折格子の開発に広範な研究が行われてきました。
ただし、赤外線 (IR) カメラからビーム プロファイルを表示する場合、ビーム プロファイルが配置されている対応する高さを判断することが困難なことがよくあります。
この研究では、SiPh 格子からの光のビーム プロファイルの対応する高さカテゴリを認識するための変圧器モデルを開発しました。
モデルは、(1) 入力パッチ、および (2) 入力シーケンスの 2 つの手法を使用してトレーニングされます。
入力パッチを使用してトレーニングされたモデルの場合、モデルは 0.938 の認識精度を達成しました。
一方、入力シーケンスでトレーニングされたモデルの精度は 0.895 と低くなります。
ただし、モデル トレーニングを 150 サイクル繰り返すと、入力パッチでトレーニングされたモデルは 0.445 ~ 0.959 の一貫性のない精度範囲を示しますが、入力シーケンスでトレーニングされたモデルは 0.789 ~ 0.936 のより高い精度値を示します。
得られた結果は、光ビームの自動焦点合わせや、所望のビームプロファイルを取得するための Z 軸ステージの自動調整など、さまざまなアプリケーションに拡張できます。
要約(オリジナル)
Over the past decade, there has been extensive work in developing integrated silicon photonics (SiPh) gratings for the optical addressing of trapped ion qubits in the ion trap quantum computing community. However, when viewing beam profiles from infrared (IR) cameras, it is often difficult to determine the corresponding heights where the beam profiles are located. In this work, we developed transformer models to recognize the corresponding height categories of beam profiles of light from SiPh gratings. The model is trained using two techniques: (1) input patches, and (2) input sequence. For model trained with input patches, the model achieved recognition accuracy of 0.938. Meanwhile, model trained with input sequence shows lower accuracy of 0.895. However, when repeating the model-training 150 cycles, model trained with input patches shows inconsistent accuracy ranges between 0.445 to 0.959, while model trained with input sequence exhibit higher accuracy values between 0.789 to 0.936. The obtained outcomes can be expanded to various applications, including auto-focusing of light beam and auto-adjustment of z-axis stage to acquire desired beam profiles.
arxiv情報
著者 | Yu Dian Lim,Hong Yu Li,Simon Chun Kiat Goh,Xiangyu Wang,Peng Zhao,Chuan Seng Tan |
発行日 | 2024-08-21 14:10:43+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google