Mixed-Type Wafer Classification For Low Memory Devices Using Knowledge Distillation

要約

ウェーハの製造は、何千ものステップを伴う複雑な作業です。
ウェーハマップの欠陥パターン認識 (DPR) は、製造欠陥の根本原因を特定するために重要であり、ウェーハファウンドリにおける歩留まり向上のための洞察をさらに提供する可能性があります。
製造中に、さまざまな欠陥がウェーハ内に単独で発生したり、さまざまな組み合わせとして発生したりすることがあります。
一般に、ウェーハ内の複数の欠陥を特定することは、単一の欠陥を特定することに比べて困難です。
最近、混合型 DPR では深層学習手法が大きな注目を集めています。
ただし、欠陥が複雑であるため、複雑で大規模なモデルが必要となり、製造ラボで一般的に使用される低メモリの組み込みデバイスでモデルを操作することが非常に困難になります。
もう 1 つの一般的な問題は、複雑なネットワークをトレーニングするためのラベル付きデータが利用できないことです。
この研究では、複雑な事前トレーニング済みモデルの知識を軽量の展開準備ができたモデルに抽出するための教師なしトレーニング ルーチンを提案します。
このタイプのトレーニングでは、教師モデルよりも最大 10 倍小さいにもかかわらず、精度を犠牲にすることなくモデルを圧縮できることが経験的に示されています。
圧縮モデルは、現代の最先端モデルよりも優れたパフォーマンスを発揮します。

要約(オリジナル)

Manufacturing wafers is an intricate task involving thousands of steps. Defect Pattern Recognition (DPR) of wafer maps is crucial for determining the root cause of production defects, which may further provide insight for yield improvement in wafer foundry. During manufacturing, various defects may appear standalone in the wafer or may appear as different combinations. Identifying multiple defects in a wafer is generally harder compared to identifying a single defect. Recently, deep learning methods have gained significant traction in mixed-type DPR. However, the complexity of defects requires complex and large models making them very difficult to operate on low-memory embedded devices typically used in fabrication labs. Another common issue is the unavailability of labeled data to train complex networks. In this work, we propose an unsupervised training routine to distill the knowledge of complex pre-trained models to lightweight deployment-ready models. We empirically show that this type of training compresses the model without sacrificing accuracy despite being up to 10 times smaller than the teacher model. The compressed model also manages to outperform contemporary state-of-the-art models.

arxiv情報

著者 Nitish Shukla,Anurima Dey,Srivatsan K
発行日 2023-10-18 15:37:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク