要約
画像分類のためのディープラーニングモデルは、歴史的・効率的な理由から224×224ピクセルの解像度で学習されることが多い。しかし、胸部X線は、微妙な病態を表示するために、はるかに高い解像度で取得される。本研究では、胸部X線14データセットを用いて、胸部X線分類性能に対するトレーニング解像度の影響を調査する。その結果、256×256ピクセルの画像で学習した場合の平均AUCが82.7%であったのに対し、1024×1024ピクセルの高解像度で学習した場合の平均AUCが84.2%となり、総合的な分類性能が最も優れていることが示された。さらに、バウンディングボックスとGradCAMの顕著性マップの比較から、256 x 256ピクセルのような低解像度では、小さな病変を識別するには不十分であり、モデルは偽の識別特徴を使用せざるを得ないことが示唆される。我々のコードは https://gitlab.lrz.de/IP/cxr-resolution で公開されている。
要約(オリジナル)
Deep learning models for image classification are often trained at a resolution of 224 x 224 pixels for historical and efficiency reasons. However, chest X-rays are acquired at a much higher resolution to display subtle pathologies. This study investigates the effect of training resolution on chest X-ray classification performance, using the chest X-ray 14 dataset. The results show that training with a higher image resolution, specifically 1024 x 1024 pixels, results in the best overall classification performance with a mean AUC of 84.2 % compared to 82.7 % when trained with 256 x 256 pixel images. Additionally, comparison of bounding boxes and GradCAM saliency maps suggest that low resolutions, such as 256 x 256 pixels, are insufficient for identifying small pathologies and force the model to use spurious discriminating features. Our code is publicly available at https://gitlab.lrz.de/IP/cxr-resolution
arxiv情報
著者 | Alessandro Wollek,Sardi Hyska,Bastian Sabel,Michael Ingrisch,Tobias Lasser |
発行日 | 2023-08-03 17:58:20+00:00 |
arxivサイト | arxiv_id(pdf) |