BayTTA: Uncertainty-aware medical image classification with optimized test-time augmentation using Bayesian model averaging

要約

テスト時拡張 (TTA) は、コンピューター ビジョン タスクのテスト段階で使用されるよく知られた技術です。
これには、入力データの複数の拡張バージョンを集約することが含まれます。
単純な平均公式を使用して予測を組み合わせるのは、TTA 実行後の一般的で簡単なアプローチです。
このペーパーでは、ベイジアン モデル平均化 (BMA) に基づいた BayTTA (ベイジアンベース TTA) と呼ばれる、TTA を最適化するための新しいフレームワークを紹介します。
まず、TTA を通じて作成された入力データのさまざまなバリエーションに関連付けられたモデル リストを生成します。
次に、BMA を使用して、それぞれの事後確率で重み付けされたモデル予測を結合します。
このようなアプローチにより、モデルの不確実性を考慮できるため、関連する機械学習または深層学習モデルの予測パフォーマンスを向上させることができます。
私たちは、皮膚がん、乳がん、胸部 X 線画像からなる 3 つの医療画像データセットと、CRISPOR と GUIDE-seq という 2 つのよく知られた遺伝子編集データセットを含む、さまざまな公開データに対する BayTTA のパフォーマンスを評価します。
私たちの実験結果は、BayTTA が医療画像分析で使用される最先端の深層学習モデルや、VGG-16、MobileNetV2、DenseNet201、ResNet152V2、
InceptionRes-NetV2 は、精度と堅牢性のパフォーマンスの向上につながります。

要約(オリジナル)

Test-time augmentation (TTA) is a well-known technique employed during the testing phase of computer vision tasks. It involves aggregating multiple augmented versions of input data. Combining predictions using a simple average formulation is a common and straightforward approach after performing TTA. This paper introduces a novel framework for optimizing TTA, called BayTTA (Bayesian-based TTA), which is based on Bayesian Model Averaging (BMA). First, we generate a model list associated with different variations of the input data created through TTA. Then, we use BMA to combine model predictions weighted by their respective posterior probabilities. Such an approach allows one to take into account model uncertainty, and thus to enhance the predictive performance of the related machine learning or deep learning model. We evaluate the performance of BayTTA on various public data, including three medical image datasets comprising skin cancer, breast cancer, and chest X-ray images and two well-known gene editing datasets, CRISPOR and GUIDE-seq. Our experimental results indicate that BayTTA can be effectively integrated into state-of-the-art deep learning models used in medical image analysis as well as into some popular pre-trained CNN models such as VGG-16, MobileNetV2, DenseNet201, ResNet152V2, and InceptionRes-NetV2, leading to the enhancement in their accuracy and robustness performance.

arxiv情報

著者 Zeinab Sherkatghanad,Moloud Abdar,Mohammadreza Bakhtyari,Vladimir Makarenkov
発行日 2024-06-25 15:24:06+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク