要約
医療画像分析では、機能エンジニアリングは、機械学習モデルの設計とパフォーマンスにおいて重要な役割を果たします。
トポロジーデータ分析の分野(TDA)からの永続性相同性(PH)は、データの摂動に対する堅牢性と安定性を示し、入力の小さな変化が特徴表現の大きな変化をもたらす従来の特徴抽出アプローチからの制限に対処します。
pHを使用して、持続性トポロジーと幾何学的特徴を永続性バーコードの形で保存し、大きなバーがグローバルなトポロジー特徴を表し、小さなバーはデータの幾何学的情報をカプセル化します。
複数のバーコードが2Dまたは3Dの医療画像から計算される場合、2つのアプローチを使用して、各次元で最終的なトポロジー特徴ベクトルを構築できます。持続性バーコードを集約し、それに続いて各バーコードから派生したトポロジー特徴ベクトルを連結します。
この研究では、多様な医療イメージングデータセット間で包括的な分析を実施して、分類モデルのパフォーマンスに対する2つの前述のアプローチの効果を比較します。
この分析の結果は、特徴が個々のバーコードからの詳細なトポロジー情報を保持し、より良い分類パフォーマンスをもたらすため、同様の実験を実施する際に好ましいアプローチであることを示しています。
要約(オリジナル)
In medical image analysis, feature engineering plays an important role in the design and performance of machine learning models. Persistent homology (PH), from the field of topological data analysis (TDA), demonstrates robustness and stability to data perturbations and addresses the limitation from traditional feature extraction approaches where a small change in input results in a large change in feature representation. Using PH, we store persistent topological and geometrical features in the form of the persistence barcode whereby large bars represent global topological features and small bars encapsulate geometrical information of the data. When multiple barcodes are computed from 2D or 3D medical images, two approaches can be used to construct the final topological feature vector in each dimension: aggregating persistence barcodes followed by featurization or concatenating topological feature vectors derived from each barcode. In this study, we conduct a comprehensive analysis across diverse medical imaging datasets to compare the effects of the two aforementioned approaches on the performance of classification models. The results of this analysis indicate that feature concatenation preserves detailed topological information from individual barcodes, yields better classification performance and is therefore a preferred approach when conducting similar experiments.
arxiv情報
著者 | Dashti A. Ali,Richard K. G. Do,William R. Jarnagin,Aras T. Asaad,Amber L. Simpson |
発行日 | 2025-05-29 16:45:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google