要約
従来のマルチインスタンス学習(MIL)メソッドは、多くの場合、インスタンス間の同一で独立した分散された仮定に基づいているため、個々のエンティティを超えた潜在的に豊富なコンテキスト情報を無視します。
一方、グローバルな自己注意モジュールを備えたトランスフォーマーは、すべてのインスタンス間の相互依存性をモデル化するために提案されています。
しかし、この論文では、自己注意を使用したグローバルな関係モデリングが必要ですか、それとも大規模な全スライド画像(WSI)のローカルレジームに自己注意の計算を適切に制限できますか?
MIL用の汎用ローカルアテンショングラフベースのトランスフォーマー(LA-MIL)を提案し、任意のサイズの適応ローカルレジームでインスタンスを明示的にコンテキスト化することによって誘導バイアスを導入します。
さらに、効率的に適応された損失関数により、複数のバイオマーカーの共同分析のための表現力豊かなWSI埋め込みを学習するアプローチが可能になります。
LA-MILが消化器癌の突然変異予測において最先端の結果を達成し、結腸直腸癌のマイクロサテライト不安定性などの重要なバイオマーカーに関する既存のモデルを上回っていることを示します。
私たちの調査結果は、ローカルの自己注意がグローバルモジュールと同等の依存関係を十分にモデル化することを示唆しています。
LA-MILの実装は、https://github.com/agentdr1/LA_MILで入手できます。
要約(オリジナル)
Classical multiple instance learning (MIL) methods are often based on the identical and independent distributed assumption between instances, hence neglecting the potentially rich contextual information beyond individual entities. On the other hand, Transformers with global self-attention modules have been proposed to model the interdependencies among all instances. However, in this paper we question: Is global relation modeling using self-attention necessary, or can we appropriately restrict self-attention calculations to local regimes in large-scale whole slide images (WSIs)? We propose a general-purpose local attention graph-based Transformer for MIL (LA-MIL), introducing an inductive bias by explicitly contextualizing instances in adaptive local regimes of arbitrary size. Additionally, an efficiently adapted loss function enables our approach to learn expressive WSI embeddings for the joint analysis of multiple biomarkers. We demonstrate that LA-MIL achieves state-of-the-art results in mutation prediction for gastrointestinal cancer, outperforming existing models on important biomarkers such as microsatellite instability for colorectal cancer. Our findings suggest that local self-attention sufficiently models dependencies on par with global modules. Our LA-MIL implementation is available at https://github.com/agentdr1/LA_MIL.
arxiv情報
著者 | Daniel Reisenbüchler,Sophia J. Wagner,Melanie Boxberg,Tingying Peng |
発行日 | 2022-06-17 15:24:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google