要約
2023 年 4 月にリリースされた Meta AI の新しい AI モデルである Segment Anything Model (SAM) は、意味解釈を通じて特定の画像内の個々のオブジェクトを識別して分離するように設計された野心的なツールです。
SAM の高度な機能は、数百万の画像とマスクを使用したトレーニングの結果であり、リリースの数日後、数人の研究者がこの領域でのパフォーマンスを評価するために医療画像でモデルのテストを開始しました。
この視点、つまり医療分野での作業の最適化に焦点を当てたこの研究では、胸部 X 線画像の評価と研究にこの新しいテクノロジーを使用することを提案しています。
肺のセグメンテーションに対するモデルのパフォーマンスを向上させることを目的として、この作業に採用されたアプローチには、転移学習プロセス、特に微調整技術が含まれていました。
この調整を適用した後、データセットによって提供されるマスクと比較して、SAM のパフォーマンスを評価するために使用される評価指標に大幅な改善が観察されました。
調整後のモデルによって得られた結果は満足のいくもので、U-Net などの最先端のニューラル ネットワークと同様でした。
要約(オリジナル)
Segment Anything Model (SAM), a new AI model from Meta AI released in April 2023, is an ambitious tool designed to identify and separate individual objects within a given image through semantic interpretation. The advanced capabilities of SAM are the result of its training with millions of images and masks, and a few days after its release, several researchers began testing the model on medical images to evaluate its performance in this domain. With this perspective in focus — i.e., optimizing work in the healthcare field — this work proposes the use of this new technology to evaluate and study chest X-ray images. The approach adopted for this work, with the aim of improving the model’s performance for lung segmentation, involved a transfer learning process, specifically the fine-tuning technique. After applying this adjustment, a substantial improvement was observed in the evaluation metrics used to assess SAM’s performance compared to the masks provided by the datasets. The results obtained by the model after the adjustments were satisfactory and similar to cutting-edge neural networks, such as U-Net.
arxiv情報
著者 | Gabriel Bellon de Carvalho,Jurandy Almeida |
発行日 | 2024-11-05 12:54:01+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google