要約
原子スケール材料の特性評価では、伝統的に、数ヶ月から長年の専門的なトレーニングを行う人間の専門家が必要です。
訓練された人間のオペレーターであっても、2次元(2D)構造などの新たに発見された材料を調べる場合、正確で信頼できる特性評価は依然として困難です。
このボトルネックは、大規模なトレーニングデータセットを必要とせずに研究目標を理解できる完全に自律的な実験システムの需要を促進します。
この作業では、2D材料の完全に自律的でゼロショットの特性評価を可能にする基礎モデルを統合するエンドツーエンドのフレームワークである、アトミック(光学顕微鏡とインテリジェントな特性評価の自律技術)を提示します。
当社のシステムは、Vision Foundationモデル(つまり、すべてのモデル)、大規模な言語モデル(つまり、CHATGPT)、監視なしクラスタリング、およびトポロジ分析を統合して、顕微鏡制御、サンプルスキャン、画像セグメンテーション、およびインテリジェントな分析を自動化し、追加トレーニングの必要性を排除します。
典型的なMOS2サンプルを分析するとき、私たちのアプローチは、単一層識別のために99.7%のセグメンテーション精度を達成します。これは、人間の専門家と同等です。
さらに、統合されたモデルは、人間の目と同一視するのが難しい粒の境界スリットを検出できます。
さらに、システムは、フォーカス、色温度の変動、曝露の変動などのさまざまな条件にもかかわらず、堅牢な精度を保持します。
グラフェン、MOS2、WSE2を含む一般的な2D材料の広範なスペクトルに適用できます。SNSEは、化学蒸気堆積または機械的剥離を介して製造されたかどうかに関係していません。
この作業は、自律分析を実現するための基礎モデルの実装を表し、ナノスケール材料の研究へのアプローチを根本的に変換するスケーラブルでデータ効率の高い特性評価パラダイムを確立します。
要約(オリジナル)
Characterization of atomic-scale materials traditionally requires human experts with months to years of specialized training. Even for trained human operators, accurate and reliable characterization remains challenging when examining newly discovered materials such as two-dimensional (2D) structures. This bottleneck drives demand for fully autonomous experimentation systems capable of comprehending research objectives without requiring large training datasets. In this work, we present ATOMIC (Autonomous Technology for Optical Microscopy & Intelligent Characterization), an end-to-end framework that integrates foundation models to enable fully autonomous, zero-shot characterization of 2D materials. Our system integrates the vision foundation model (i.e., Segment Anything Model), large language models (i.e., ChatGPT), unsupervised clustering, and topological analysis to automate microscope control, sample scanning, image segmentation, and intelligent analysis through prompt engineering, eliminating the need for additional training. When analyzing typical MoS2 samples, our approach achieves 99.7% segmentation accuracy for single layer identification, which is equivalent to that of human experts. In addition, the integrated model is able to detect grain boundary slits that are challenging to identify with human eyes. Furthermore, the system retains robust accuracy despite variable conditions including defocus, color temperature fluctuations, and exposure variations. It is applicable to a broad spectrum of common 2D materials-including graphene, MoS2, WSe2, SnSe-regardless of whether they were fabricated via chemical vapor deposition or mechanical exfoliation. This work represents the implementation of foundation models to achieve autonomous analysis, establishing a scalable and data-efficient characterization paradigm that fundamentally transforms the approach to nanoscale materials research.
arxiv情報
著者 | Jingyun Yang,Ruoyan Avery Yin,Chi Jiang,Yuepeng Hu,Xiaokai Zhu,Xingjian Hu,Sutharsika Kumar,Xiao Wang,Xiaohua Zhai,Keran Rong,Yunyue Zhu,Tianyi Zhang,Zongyou Yin,Jing Kong,Neil Zhenqiang Gong,Zhichu Ren,Haozhe Wang |
発行日 | 2025-04-14 14:49:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google