要約
外科的位相認識のための既存の最先端の方法は、短距離時間分解能での時空間特徴の抽出に依存するか、時間分解能全体にわたる空間的および時間的特徴の逐次抽出を採用するかのいずれかである。
ただし、これらの方法には、時空間依存性のモデリングと時空間冗長性への対処において制限があります。 1) これらの方法は、長距離情報または共同時空間モデリングが欠如しているため、時空間依存性を効果的にモデル化できません。
2) これらの方法は、時間解像度全体にわたって高密度の空間特徴を利用するため、大幅な時空間冗長性が生じます。
この論文では、時空間モデリングと冗長性の問題にエンドツーエンドの方法で対処するための Surgical Transformer (Surgformer) を提案します。これは、分割された時空間的注意を使用し、限られたセットのまばらなフレームを入力として受け取ります。
さらに、ターゲット フレーム中心の観点から、さまざまな時間解像度内でグローバル情報とローカル情報の両方をキャプチャするための新しい階層的時間アテンション (HTA) を提案します。
主に高密度の長距離類似性を強調する従来の時間的注意とは異なり、HTA は長期情報を捕捉するだけでなく、情報フレーム間の局所的な潜在的な一貫性も考慮します。
次に、HTA はピラミッド特徴の集約を使用して、さまざまな時間解像度にわたって時間情報を効果的に利用し、それによって全体の時間表現を強化します。
2 つの困難なベンチマーク データセットに対する広範な実験により、私たちが提案した Surgformer が最先端の手法に対して有利に機能することが確認されました。
コードは https://github.com/isyangshu/Surgformer で公開されています。
要約(オリジナル)
Existing state-of-the-art methods for surgical phase recognition either rely on the extraction of spatial-temporal features at a short-range temporal resolution or adopt the sequential extraction of the spatial and temporal features across the entire temporal resolution. However, these methods have limitations in modeling spatial-temporal dependency and addressing spatial-temporal redundancy: 1) These methods fail to effectively model spatial-temporal dependency, due to the lack of long-range information or joint spatial-temporal modeling. 2) These methods utilize dense spatial features across the entire temporal resolution, resulting in significant spatial-temporal redundancy. In this paper, we propose the Surgical Transformer (Surgformer) to address the issues of spatial-temporal modeling and redundancy in an end-to-end manner, which employs divided spatial-temporal attention and takes a limited set of sparse frames as input. Moreover, we propose a novel Hierarchical Temporal Attention (HTA) to capture both global and local information within varied temporal resolutions from a target frame-centric perspective. Distinct from conventional temporal attention that primarily emphasizes dense long-range similarity, HTA not only captures long-term information but also considers local latent consistency among informative frames. HTA then employs pyramid feature aggregation to effectively utilize temporal information across diverse temporal resolutions, thereby enhancing the overall temporal representation. Extensive experiments on two challenging benchmark datasets verify that our proposed Surgformer performs favorably against the state-of-the-art methods. The code is released at https://github.com/isyangshu/Surgformer.
arxiv情報
| 著者 | Shu Yang,Luyang Luo,Qiong Wang,Hao Chen |
| 発行日 | 2024-08-07 16:16:31+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google