要約
X 線画像などの医用画像に基づく診断では、多くの場合、解剖学的キーポイントの手動注釈が必要になります。
ただし、このプロセスには多大な人間の労力が必要なため、診断プロセスのボトルネックになる可能性があります。
この手順を完全に自動化するために、ディープラーニングに基づく方法が広く提案されており、医用画像のキーポイントの検出において高いパフォーマンスを達成しています。
ただし、これらの方法にはまだ臨床上の限界があります。すべてのケースで精度が保証されるわけではなく、医師はモデルのすべての予測を再確認する必要があります。
これに対応して、X 線画像が与えられると、解剖学的キーポイントを自動的に検出して改良する新しいディープ ニューラル ネットワークを提案します。このシステムでは、医師が手動修正中に必要なクリック数よりも少ないクリック数で誤った予測キーポイントを修正できます。
独自に収集したデータと公開されている AASCE データセットを使用して、広範な定量的および定性的な結果を介して注釈コストを削減する上で提案された方法の有効性を示します。
私たちのアプローチのデモ ビデオは、プロジェクトの Web ページで入手できます。
要約(オリジナル)
Diagnosis based on medical images, such as X-ray images, often involves manual annotation of anatomical keypoints. However, this process involves significant human efforts and can thus be a bottleneck in the diagnostic process. To fully automate this procedure, deep-learning-based methods have been widely proposed and have achieved high performance in detecting keypoints in medical images. However, these methods still have clinical limitations: accuracy cannot be guaranteed for all cases, and it is necessary for doctors to double-check all predictions of models. In response, we propose a novel deep neural network that, given an X-ray image, automatically detects and refines the anatomical keypoints through a user-interactive system in which doctors can fix mispredicted keypoints with fewer clicks than needed during manual revision. Using our own collected data and the publicly available AASCE dataset, we demonstrate the effectiveness of the proposed method in reducing the annotation costs via extensive quantitative and qualitative results. A demo video of our approach is available on our project webpage.
arxiv情報
著者 | Jinhee Kim,Taesung Kim,Taewoo Kim,Jaegul Choo,Dong-Wook Kim,Byungduk Ahn,In-Seok Song,Yoon-Ji Kim |
発行日 | 2022-09-15 09:27:14+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google