要約
一部の医用画像処理タスクや、画像のごく一部のみが分類タスクの情報となるその他の設定では、従来の CNN は一般化するのに苦労することがあります。
手動で注釈を付けた関心領域 (ROI) は、画像の最も有益な部分を分離するために使用されることがあります。
ただし、これらは収集するのに費用がかかり、アノテーターによって大きく異なる場合があります。
これらの問題を克服するために、顕著性マップを使用して、さまざまなスケールで画像の特徴を変調するソフトな空間的注意マスクを取得するフレームワークを提案します。
私たちの方法は、Adversarial Counterfactual Attention (ACAT) と呼ばれます。
ACAT は、脳 CT スキャンにおける病変のベースライン分類精度を 71.39% から 72.55% に、肺 CT スキャンにおける COVID-19 関連所見のベースライン分類精度を 67.71% から 70.84% に向上させ、競合する方法のパフォーマンスを上回っています。
アーキテクチャで採用されている顕著性マップを生成する最良の方法を調査し、敵対的に生成された反事実画像からそれらを取得する方法を提案します。
彼らは、手動の注釈を使用せずに、脳と肺の CT スキャンで関心のある領域を分離することができます。
6 つの可能な領域から病変の位置を特定するタスクでは、脳 CT スキャンで 65.05% のスコアが得られ、競合する最良の方法で得られた 61.29% のスコアが改善されました。
要約(オリジナル)
In some medical imaging tasks and other settings where only small parts of the image are informative for the classification task, traditional CNNs can sometimes struggle to generalise. Manually annotated Regions of Interest (ROI) are sometimes used to isolate the most informative parts of the image. However, these are expensive to collect and may vary significantly across annotators. To overcome these issues, we propose a framework that employs saliency maps to obtain soft spatial attention masks that modulate the image features at different scales. We refer to our method as Adversarial Counterfactual Attention (ACAT). ACAT increases the baseline classification accuracy of lesions in brain CT scans from 71.39% to 72.55% and of COVID-19 related findings in lung CT scans from 67.71% to 70.84% and exceeds the performance of competing methods. We investigate the best way to generate the saliency maps employed in our architecture and propose a way to obtain them from adversarially generated counterfactual images. They are able to isolate the area of interest in brain and lung CT scans without using any manual annotations. In the task of localising the lesion location out of 6 possible regions, they obtain a score of 65.05% on brain CT scans, improving the score of 61.29% obtained with the best competing method.
arxiv情報
著者 | Alessandro Fontanella,Antreas Antoniou,Wenwen Li,Joanna Wardlaw,Grant Mair,Emanuele Trucco,Amos Storkey |
発行日 | 2023-03-27 17:43:57+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google