要約
子どもたちは日常生活の中で手首に外傷を負うことがよくありますが、通常、外科医による外科的治療の前に放射線科医がX線画像を分析して解釈する必要があります。
ディープラーニングの発展により、ニューラル ネットワークがコンピュータ支援診断 (CAD) ツールとして機能し、医師や医療画像診断の専門家を支援できるようになりました。
YOLOv8 モデルは物体検出タスクで十分な成功を収めたため、さまざまな破壊検出に適用されています。
この作業では、機能コンテキスト励起-YOLOv8 (FCE-YOLOv8) モデルの 4 つのバリアントが導入されており、それぞれに異なる FCE モジュール (つまり、スクイーズアンド励起 (SE)、グローバル コンテキスト (GC)、ギャザエキサイト (GE) のモジュール) が組み込まれています。
、ガウス コンテキスト トランスフォーマー (GCT)) を使用して、モデルのパフォーマンスを向上させます。
GRAZPEDWRI-DX データセットの実験結果は、私たちが提案した YOLOv8+GC-M3 モデルが mAP@50 値を 65.78% から 66.32% に改善し、推論時間を短縮しながら最先端 (SOTA) モデルを上回るパフォーマンスを示していることを示しています。
さらに、私たちが提案する YOLOv8+SE-M3 モデルは、SOTA のパフォーマンスを超える、67.07% という最高の mAP@50 値を達成します。
この作業の実装は https://github.com/RuiyangJu/FCE-YOLOv8 で入手できます。
要約(オリジナル)
Children often suffer wrist trauma in daily life, while they usually need radiologists to analyze and interpret X-ray images before surgical treatment by surgeons. The development of deep learning has enabled neural networks to serve as computer-assisted diagnosis (CAD) tools to help doctors and experts in medical image diagnostics. Since YOLOv8 model has obtained the satisfactory success in object detection tasks, it has been applied to various fracture detection. This work introduces four variants of Feature Contexts Excitation-YOLOv8 (FCE-YOLOv8) model, each incorporating a different FCE module (i.e., modules of Squeeze-and-Excitation (SE), Global Context (GC), Gather-Excite (GE), and Gaussian Context Transformer (GCT)) to enhance the model performance. Experimental results on GRAZPEDWRI-DX dataset demonstrate that our proposed YOLOv8+GC-M3 model improves the mAP@50 value from 65.78% to 66.32%, outperforming the state-of-the-art (SOTA) model while reducing inference time. Furthermore, our proposed YOLOv8+SE-M3 model achieves the highest mAP@50 value of 67.07%, exceeding the SOTA performance. The implementation of this work is available at https://github.com/RuiyangJu/FCE-YOLOv8.
arxiv情報
著者 | Rui-Yang Ju,Chun-Tse Chien,Enkaer Xieerke,Jen-Shiun Chiang |
発行日 | 2024-11-07 15:41:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google