MATIS: Masked-Attention Transformers for Surgical Instrument Segmentation

要約

手術器具のセグメンテーション (MATIS) 用のマスクされた注意トランスフォーマーを提案します。これは、器具のセグメンテーションに最新のピクセル単位の注意メカニズムを活用する、2 段階の完全にトランスフォーマー ベースの方法です。
MATIS は、一連の細かい器具領域提案を生成および分類するマスクされた注意モジュールを採用することにより、タスクのインスタンス レベルの性質を利用します。
私たちの方法は、ビデオトランスフォーマーを介して長期的なビデオレベルの情報を組み込み、時間的な一貫性を改善し、マスク分類を強化します。
Endovis 2017 と Endovis 2018 の 2 つの標準的な公開ベンチマークでアプローチを検証します。私たちの実験は、MATIS のフレームごとのベースラインが以前の最先端の方法よりも優れていること、および時間整合性モジュールを含めることでモデルのパフォーマンスがさらに向上することを示しています。

要約(オリジナル)

We propose Masked-Attention Transformers for Surgical Instrument Segmentation (MATIS), a two-stage, fully transformer-based method that leverages modern pixel-wise attention mechanisms for instrument segmentation. MATIS exploits the instance-level nature of the task by employing a masked attention module that generates and classifies a set of fine instrument region proposals. Our method incorporates long-term video-level information through video transformers to improve temporal consistency and enhance mask classification. We validate our approach in the two standard public benchmarks, Endovis 2017 and Endovis 2018. Our experiments demonstrate that MATIS’ per-frame baseline outperforms previous state-of-the-art methods and that including our temporal consistency module boosts our model’s performance further.

arxiv情報

著者 Nicolás Ayobi,Alejandra Pérez-Rondón,Santiago Rodríguez,Pablo Arbeláez
発行日 2023-03-16 17:31:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク