要約
コンピュータビジョンモデルは、卵巣上皮がんのサブタイプを分類できるようになってきていますが、小さな組織パッチを単一の解像度で処理する点で病理学者とは異なります。
多重解像度グラフ モデルは、複数の倍率でパッチの空間関係を活用し、各パッチのコンテキストを学習します。
この研究では、卵巣がんのサブタイプ分類のためのグラフ モデルのこれまでで最も徹底的な検証を実施します。
リーズ教育病院 NHS トラストで治療を受けた 434 人の患者からの 1864 枚の全スライド画像 (WSI) セットに対する 5 重交差検証を使用して、7 つのモデルが調整およびトレーニングされました。
相互検証モデルはアンサンブルされ、トランスカナダ研究では 30 人の患者からの 100 個の WSI のバランスの取れたホールドアウト テスト セットと、80 人の患者からの 80 個の WSI からなる外部検証セットを使用して評価されました。
最もパフォーマンスの高いモデルは、10 倍 + 20 倍の倍率データを使用したグラフ モデルで、相互検証、ホールドアウト テスト、外部検証でそれぞれ 73%、88%、99% のバランスのとれた精度を示しました。
ただし、これは、外部検証におけるアテンションベースの複数インスタンス学習のパフォーマンスを 93% のバランスの取れた精度で上回っただけです。
グラフ モデルは、特徴抽出に ImageNet で事前トレーニングされた ResNet50 ではなく UNI 基礎モデルを使用することで大きな恩恵を受け、これは後続の分類アプローチを変更するよりもパフォーマンスにはるかに大きな影響を与えます。
基礎モデルと多重解像度グラフ ネットワークを組み合わせた精度は、モデルの堅牢性と使いやすさを保証するためにさらなる検証が必要であるものの、このタスクで新たに最高のパフォーマンスが報告されており、これらのモデルの臨床応用可能性への一歩を提供します。
。
要約(オリジナル)
Computer vision models are increasingly capable of classifying ovarian epithelial cancer subtypes, but they differ from pathologists by processing small tissue patches at a single resolution. Multi-resolution graph models leverage the spatial relationships of patches at multiple magnifications, learning the context for each patch. In this study, we conduct the most thorough validation of a graph model for ovarian cancer subtyping to date. Seven models were tuned and trained using five-fold cross-validation on a set of 1864 whole slide images (WSIs) from 434 patients treated at Leeds Teaching Hospitals NHS Trust. The cross-validation models were ensembled and evaluated using a balanced hold-out test set of 100 WSIs from 30 patients, and an external validation set of 80 WSIs from 80 patients in the Transcanadian Study. The best-performing model, a graph model using 10x+20x magnification data, gave balanced accuracies of 73%, 88%, and 99% in cross-validation, hold-out testing, and external validation, respectively. However, this only exceeded the performance of attention-based multiple instance learning in external validation, with a 93% balanced accuracy. Graph models benefitted greatly from using the UNI foundation model rather than an ImageNet-pretrained ResNet50 for feature extraction, with this having a much greater effect on performance than changing the subsequent classification approach. The accuracy of the combined foundation model and multi-resolution graph network offers a step towards the clinical applicability of these models, with a new highest-reported performance for this task, though further validations are still required to ensure the robustness and usability of the models.
arxiv情報
著者 | Jack Breen,Katie Allen,Kieran Zucker,Nicolas M. Orsi,Nishant Ravikumar |
発行日 | 2024-07-25 15:08:54+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google