Histopathology Foundation Models Enable Accurate Ovarian Cancer Subtype Classification

要約

大規模な事前学習済みトランスフォーマーは、強力なタスク固有の人工知能モデルを支えることができる一般化された基礎モデルとしてますます開発されています。
組織病理学基礎モデルは多くのタスクにわたって有望ですが、特定のタスク/データセットに調整されていない任意のハイパーパラメータによって分析が制限されてきました。
我々は、組織病理学基礎モデルに関してこれまでに実施された最も厳密な単一タスクの検証を報告し、これは卵巣癌のサブタイピングにおいて初めて実施されたものである。
さまざまな前処理および事前トレーニング手順を通じて生成されたビジョン トランスフォーマーと ResNet 機能を使用して、注意ベースの複数インスタンス学習分類器が比較されました。
トレーニング セットは、リーズ病院の卵巣癌症例 434 例からの 1864 枚の全体スライド画像で構成されていました。
5 クラスの分類パフォーマンスは 5 分割相互検証を通じて評価され、これらの相互検証モデルは、ホールドアウト テスト セットとトランスカナダ研究からの外部セットで評価するためにアンサンブルされました。
レポートは TRIPOD+AI チェックリストに従いました。
ビジョン トランスフォーマー ベースの組織病理学基礎モデルである UNI は、すべての評価で最高のパフォーマンスを示し、ホールドアウト内部および外部テストにおける 5 クラスのバランスの取れた精度が 88% と 93% であったのに対し、ResNet モデルの最高スコアは 68% と 81% でした。
%、 それぞれ。
正規化と拡張は ResNet ベースのモデルの一般化に役立ちましたが、これまでの卵巣がんサブタイピング研究の中で最高の外部パフォーマンスを示した UNI のパフォーマンスにはまだ及ばませんでした。
組織病理学基礎モデルはサブタイピングに明らかな利点をもたらし、計算負荷は増加しますが、分類パフォーマンスを臨床での有用性が目に見える程度まで向上させます。
このようなモデルは、困難な症例にセカンドオピニオンを提供する可能性があり、病理診断全体の精度、客観性、効率を向上させる可能性があります。

要約(オリジナル)

Large pretrained transformers are increasingly being developed as generalised foundation models which can underpin powerful task-specific artificial intelligence models. Histopathology foundation models show promise across many tasks, but analyses have been limited by arbitrary hyperparameters that were not tuned to the specific task/dataset. We report the most rigorous single-task validation conducted to date of a histopathology foundation model, and the first performed in ovarian cancer subtyping. Attention-based multiple instance learning classifiers were compared using vision transformer and ResNet features generated through varied preprocessing and pretraining procedures. The training set consisted of 1864 whole slide images from 434 ovarian carcinoma cases at Leeds Hospitals. Five-class classification performance was evaluated through five-fold cross-validation, and these cross-validation models were ensembled for evaluation on a hold-out test set and an external set from the Transcanadian study. Reporting followed the TRIPOD+AI checklist. The vision transformer-based histopathology foundation model, UNI, performed best in every evaluation, with five-class balanced accuracies of 88% and 93% in hold-out internal and external testing, compared to the best ResNet model scores of 68% and 81%, respectively. Normalisations and augmentations aided the generalisability of ResNet-based models, but these still did not match the performance of UNI, which gave the best external performance in any ovarian cancer subtyping study to date. Histopathology foundation models offer a clear benefit to subtyping, improving classification performance to a degree where clinical utility is tangible, albeit with an increased computational burden. Such models could provide a second opinion in challenging cases and may improve the accuracy, objectivity, and efficiency of pathological diagnoses overall.

arxiv情報

著者 Jack Breen,Katie Allen,Kieran Zucker,Lucy Godson,Nicolas M. Orsi,Nishant Ravikumar
発行日 2024-05-16 11:21:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, eess.IV パーマリンク