要約
財団モデルは現在、生物学、天文学、ロボット工学などのさまざまな分野のコンピューター ビジョン タスクのパラダイム シフトを推進しており、ユーザー生成のプロンプトを活用してパフォーマンスを向上させています。
製造分野では、製品の品質を確保し、リアルタイムのプロセス制御を容易にするために、画像ベースの正確な欠陥セグメント化が不可欠です。
ただし、このようなタスクは多くの場合、ラベルの欠如や低遅延推論の要件など、複数の課題を特徴としています。
これらの問題に対処するために、教師なしクラスタリングを使用した新しいマルチポイント プロンプト生成スキームを備えた最先端のビジョン トランスフォーマー (ViT) ベースの基盤モデル (セグメント エニシング モデル) を使用して、画像セグメンテーションのフレームワークを構築します。
当社のフレームワークを利用して、レーザーベースの粉末床融合 (L-PBF) のケーススタディで空隙率のセグメンテーションを実行し、ラベル付きデータを使用せずに高精度を取得して、迅速な調整プロセスをガイドします。
私たちは、教師なしプロンプト生成と組み合わせた軽量基礎モデル推論を活用することで、現在のレーザー積層造形プロセスに革命をもたらす可能性のあるリアルタイム異常検出パイプラインを構築し、それによってインダストリー 4.0 への移行を促進し、運用効率とともに欠陥のない生産を促進することを構想しています。
要約(オリジナル)
Foundation models are currently driving a paradigm shift in computer vision tasks for various fields including biology, astronomy, and robotics among others, leveraging user-generated prompts to enhance their performance. In the manufacturing domain, accurate image-based defect segmentation is imperative to ensure product quality and facilitate real-time process control. However, such tasks are often characterized by multiple challenges including the absence of labels and the requirement for low latency inference among others. To address these issues, we construct a framework for image segmentation using a state-of-the-art Vision Transformer (ViT) based Foundation model (Segment Anything Model) with a novel multi-point prompt generation scheme using unsupervised clustering. Utilizing our framework we perform porosity segmentation in a case study of laser-based powder bed fusion (L-PBF) and obtain high accuracy without using any labeled data to guide the prompt tuning process. By capitalizing on lightweight foundation model inference combined with unsupervised prompt generation, we envision constructing a real-time anomaly detection pipeline that could revolutionize current laser additive manufacturing processes, thereby facilitating the shift towards Industry 4.0 and promoting defect-free production along with operational efficiency.
arxiv情報
著者 | Israt Zarin Era,Imtiaz Ahmed,Zhichao Liu,Srinjoy Das |
発行日 | 2024-06-10 17:35:23+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google