Kernel Attention Transformer (KAT) for Histopathology Whole Slide Image Classification

要約

トランスフォーマーは、腫瘍の等級付け、予後分析などの目的で、組織病理学の全スライド画像(WSI)分類で広く使用されています。ただし、一般的なトランスフォーマーでのトークン単位の自己注意と位置埋め込み戦略の設計は、有効性と効率を制限します。
ギガピクセルの組織病理学画像への応用において。
この論文では、組織病理学的WSI分類のためのカーネル注意トランスフォーマー(KAT)を提案します。
トークンの情報送信は、トークンと、WSI上の一連の位置アンカーに関連する一連のカーネルとの間の相互注意によって実現されます。
一般的なTransformer構造と比較して、提案されたKATは、WSIのローカル領域の階層コンテキスト情報をより適切に記述でき、その一方で、計算の複雑さを低く維持します。
提案された方法は、2040WSIの胃データセットと2560WSIの子宮内膜データセットで評価され、6つの最先端の方法と比較されました。
実験結果は、提案されたKATが組織病理学WSI分類のタスクにおいて効果的かつ効率的であり、最先端の方法よりも優れていることを示しています。
コードはhttps://github.com/zhengyushan/katで入手できます。

要約(オリジナル)

Transformer has been widely used in histopathology whole slide image (WSI) classification for the purpose of tumor grading, prognosis analysis, etc. However, the design of token-wise self-attention and positional embedding strategy in the common Transformer limits the effectiveness and efficiency in the application to gigapixel histopathology images. In this paper, we propose a kernel attention Transformer (KAT) for histopathology WSI classification. The information transmission of the tokens is achieved by cross-attention between the tokens and a set of kernels related to a set of positional anchors on the WSI. Compared to the common Transformer structure, the proposed KAT can better describe the hierarchical context information of the local regions of the WSI and meanwhile maintains a lower computational complexity. The proposed method was evaluated on a gastric dataset with 2040 WSIs and an endometrial dataset with 2560 WSIs, and was compared with 6 state-of-the-art methods. The experimental results have demonstrated the proposed KAT is effective and efficient in the task of histopathology WSI classification and is superior to the state-of-the-art methods. The code is available at https://github.com/zhengyushan/kat.

arxiv情報

著者 Yushan Zheng,Jun Li,Jun Shi,Fengying Xie,Zhiguo Jiang
発行日 2022-06-27 10:00:12+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク