Mixed-Type Wafer Classification For Low Memory Devices Using Knowledge Distillation

要約

ウェーハの製造は、何千もの工程を伴う複雑な作業です。
ウェーハ マップの欠陥パターン認識 (DPR) は、生産欠陥の根本原因を特定するために重要です。これにより、ウェーハ ファウンドリの歩留まり向上のための洞察がさらに得られる可能性があります。
製造中に、さまざまな欠陥がウェーハ内に単独で現れる場合もあれば、さまざまな組み合わせとして現れる場合もあります。
一般に、ウェーハ内の複数の欠陥を識別することは、単一の欠陥を識別することに比べて困難です。
最近、深層学習手法は、混合型 DPR で大きな牽引力を得ています。
ただし、欠陥の複雑さには複雑で大規模なモデルが必要であり、製造ラボで通常使用されるメモリの少ない組み込みデバイスでの操作は非常に困難です。
もう 1 つの一般的な問題は、複雑なネットワークをトレーニングするためのラベル付きデータが利用できないことです。
この作業では、事前にトレーニングされた複雑なモデルの知識を軽量の展開可能なモデルに抽出するための教師なしトレーニング ルーチンを提案します。
このタイプのトレーニングは、教師モデルの最大 10 分の 1 であるにもかかわらず、精度を犠牲にすることなくモデルを圧縮することを経験的に示しています。
圧縮モデルは、現代の最先端モデルよりも優れた性能を発揮します。

要約(オリジナル)

Manufacturing wafers is an intricate task involving thousands of steps. Defect Pattern Recognition (DPR) of wafer maps is crucial for determining the root cause of production defects, which may further provide insight for yield improvement in wafer foundry. During manufacturing, various defects may appear standalone in the wafer or may appear as different combinations. Identifying multiple defects in a wafer is generally harder compared to identifying a single defect. Recently, deep learning methods have gained significant traction in mixed-type DPR. However, the complexity of defects requires complex and large models making them very difficult to operate on low-memory embedded devices typically used in fabrication labs. Another common issue is the unavailability of labeled data to train complex networks. In this work, we propose an unsupervised training routine to distill the knowledge of complex pre-trained models to lightweight deployment-ready models. We empirically show that this type of training compresses the model without sacrificing accuracy despite being up to 10 times smaller than the teacher model. The compressed model also manages to outperform contemporary state-of-the-art models.

arxiv情報

著者 Nitish Shukla,Anurima Dey,Srivatsan K
発行日 2023-03-24 12:52:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク