要約
将来の手術室でコンテキスト認識型のコンピュータ支援を可能にするには、認知システムが医療チームによってどの手術フェーズが行われているかを自動的に理解する必要があります。
手術段階認識の主な情報源は通常ビデオですが、これには 2 つの課題があります。ビデオ ストリームから意味のある特徴を抽出することと、一連の視覚的特徴における時間情報を効果的にモデル化することです。
時間モデリングでは、長距離の依存関係を捕捉できるアテンション メカニズムが人気を集めています。
この論文では、手術段階認識のための既存の時間モデルにおける注意のための設計の選択肢を調査し、注意をより効果的に使用し、手作りの制約を必要としない新しいアプローチ、つまり自己注意を組み込んだ効率的でシンプルな時間モデル TUNeS を提案します。
畳み込み U-Net 構造の中核に位置します。
さらに、我々は、できれば長いビデオセグメント、つまり長い時間的コンテキストで、LSTM とともに特徴抽出器、標準 CNN をトレーニングすることを提案します。
私たちの実験では、ほとんどすべての時間モデルは、より長い時間コンテキストでトレーニングされた特徴抽出器の上でより良いパフォーマンスを発揮しました。
これらのコンテキスト化された特徴に関して、TUNeS は Cholec80 データセットで最先端の結果を達成します。
この研究は、注意メカニズムを使用して手術段階認識のための正確かつ効率的な時間モデルを構築する方法について新たな洞察を提供します。
自動手術段階認識の実装は、手術ワークフローの分析と最適化を自動化し、手術中のコンテキスト認識型コンピューター支援を可能にして、最終的に患者ケアを向上させるために不可欠です。
要約(オリジナル)
To enable context-aware computer assistance in the operating room of the future, cognitive systems need to understand automatically which surgical phase is being performed by the medical team. The primary source of information for surgical phase recognition is typically video, which presents two challenges: extracting meaningful features from the video stream and effectively modeling temporal information in the sequence of visual features. For temporal modeling, attention mechanisms have gained popularity due to their ability to capture long-range dependencies. In this paper, we explore design choices for attention in existing temporal models for surgical phase recognition and propose a novel approach that uses attention more effectively and does not require hand-crafted constraints: TUNeS, an efficient and simple temporal model that incorporates self-attention at the core of a convolutional U-Net structure. In addition, we propose to train the feature extractor, a standard CNN, together with an LSTM on preferably long video segments, i.e., with long temporal context. In our experiments, almost all temporal models performed better on top of feature extractors that were trained with longer temporal context. On these contextualized features, TUNeS achieves state-of-the-art results on the Cholec80 dataset. This study offers new insights on how to use attention mechanisms to build accurate and efficient temporal models for surgical phase recognition. Implementing automatic surgical phase recognition is essential to automate the analysis and optimization of surgical workflows and to enable context-aware computer assistance during surgery, thus ultimately improving patient care.
arxiv情報
著者 | Isabel Funke,Dominik Rivoir,Stefanie Krell,Stefanie Speidel |
発行日 | 2024-11-12 12:56:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google