要約
肺超音波(LUS)は、肺の継続的かつ定期的なモニタリングに使用できる唯一の医用画像診断法である可能性があります。
これは、肺感染症の発症時に肺の症状を追跡したり、COVID-19などのパンデミックのように肺へのワクチン接種の影響を追跡したりするのに非常に役立ちます。
肺の重症度のさまざまなクラスへの分類を自動化すること、またはさまざまなLUSランドマークと症状の自動セグメンテーションを行う多くの試みがありました。
ただし、これらのアプローチはすべて、静的な機械学習モデルのトレーニングに基づいています。このモデルは、臨床的に非常に注釈が付けられた大規模なデータセットを必要とし、計算量が多く、ほとんどの場合非リアルタイムです。
この作業では、リソースに制約のある設定でCOVID-19被験者のトリアージを高速化するために、リアルタイムの軽量アクティブラーニングベースのアプローチを紹介します。
このツールは、あなたが一度だけ見る(YOLO)ネットワークに基づいており、さまざまなLUSランドマーク、アーティファクトと症状の識別、肺感染の重症度の予測、に基づく能動学習の可能性に基づいて、画像の品質を提供する機能を備えています。
臨床医からのフィードバック、または画質に関するフィードバックと、感染の重症度が高く、さらなる分析のための画質が高い重要なフレームの要約。
結果は、提案されたツールが、LUSランドマークの予測のための0.5の交差点オーバーユニオン(IoU)しきい値で66%の平均平均精度(mAP)を持っていることを示しています。
14MBの軽量YOLOv5sネットワークは、QuadroP4000GPUで実行しながら123FPSを達成します。
このツールは、作成者からの要求に応じて使用および分析できます。
要約(オリジナル)
Lung ultrasound (LUS) is possibly the only medical imaging modality which could be used for continuous and periodic monitoring of the lung. This is extremely useful in tracking the lung manifestations either during the onset of lung infection or to track the effect of vaccination on lung as in pandemics such as COVID-19. There have been many attempts in automating the classification of severity of lung into various classes or automatic segmentation of various LUS landmarks and manifestations. However, all these approaches are based on training static machine learning models which require a significantly clinically annotated large dataset and are computationally heavy and most of the time non-real time. In this work, a real-time light weight active learning-based approach is presented for faster triaging in COVID-19 subjects in resource constrained settings. The tool, based on the you look only once (YOLO) network, has the capability of providing the quality of images based on the identification of various LUS landmarks, artefacts and manifestations, prediction of severity of lung infection, possibility of active learning based on the feedback from clinicians or on the image quality and a summarization of the significant frames which are having high severity of infection and high image quality for further analysis. The results show that the proposed tool has a mean average precision (mAP) of 66% at an Intersection over Union (IoU) threshold of 0.5 for the prediction of LUS landmarks. The 14MB lightweight YOLOv5s network achieves 123 FPS while running in a Quadro P4000 GPU. The tool is available for usage and analysis upon request from the authors.
arxiv情報
著者 | Jinu Joseph,Mahesh Raveendranatha Panicker,Yale Tung Chen,Kesavadas Chandrasekharan,Vimal Chacko Mondy,Anoop Ayyappan,Jineesh Valakkada,Kiran Vishnu Narayan |
発行日 | 2022-06-21 08:38:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google