要約
コンピュータ支援による低侵襲手術は、現代の手術室に大きな恩恵をもたらす可能性があります。内視鏡から送られるビデオデータは、次世代インテリジェント手術システムのためのコンテキストアウェアネスをサポートするための豊富な情報を提供します。手術中の正確な認識と自動操作を実現するために、近年、高度な画像解析と情景把握を可能にする学習ベースの技術が有望視されています。しかし、このようなモデルの学習は、大規模・高品質・マルチタスクのラベル付けされたデータに強く依存している。しかし、CAIの分野では、利用可能な公開データが極めて限られているため、この点がボトルネックになっている。本論文では、子宮摘出手術における学習ベースの自動化を促進するために、複数の画像ベースの知覚タスクを持つ最初の統合データセット(AutoLaparoと命名)を紹介し、公開します。我々のAutoLaparoデータセットは、子宮摘出手術の全長ビデオに基づいて開発されている。具体的には、手術の流れの認識、腹腔鏡の動作予測、器具と主要な解剖学のセグメンテーションという、異なるが相関性の高い3つのタスクがデータセットに定式化されている。さらに、このデータセットに対する更なるモデル開発と評価のための参照ベンチマークとして、最新モデルによる実験結果を提供する。データセットは https://autolaparo.github.io で公開されています。
要約(オリジナル)
Computer-assisted minimally invasive surgery has great potential in benefiting modern operating theatres. The video data streamed from the endoscope provides rich information to support context-awareness for next-generation intelligent surgical systems. To achieve accurate perception and automatic manipulation during the procedure, learning based technique is a promising way, which enables advanced image analysis and scene understanding in recent years. However, learning such models highly relies on large-scale, high-quality, and multi-task labelled data. This is currently a bottleneck for the topic, as available public dataset is still extremely limited in the field of CAI. In this paper, we present and release the first integrated dataset (named AutoLaparo) with multiple image-based perception tasks to facilitate learning-based automation in hysterectomy surgery. Our AutoLaparo dataset is developed based on full-length videos of entire hysterectomy procedures. Specifically, three different yet highly correlated tasks are formulated in the dataset, including surgical workflow recognition, laparoscope motion prediction, and instrument and key anatomy segmentation. In addition, we provide experimental results with state-of-the-art models as reference benchmarks for further model developments and evaluations on this dataset. The dataset is available at https://autolaparo.github.io.
arxiv情報
著者 | Ziyi Wang,Bo Lu,Yonghao Long,Fangxun Zhong,Tak-Hong Cheung,Qi Dou,Yunhui Liu |
発行日 | 2022-08-03 13:17:23+00:00 |
arxivサイト | arxiv_id(pdf) |