SurgT challenge: Benchmark of Soft-Tissue Trackers for Robotic Surgery

要約

本稿では、MICCAI 2022に合わせて企画された「SurgT: Surgical Tracking」チャレンジを紹介します。このチャレンジの作成目的は2つありました: (1) 研究コミュニティがソフトを評価するための初の標準化されたベンチマークを確立する。
組織トラッカー。
(2) 手術における注釈付きデータの欠如を考慮して、教師なし深層学習手法の開発を奨励すること。
20 の臨床症例からの 157 のステレオ内視鏡ビデオのデータセットと、ステレオ カメラのキャリブレーション パラメーターが提供されています。
参加者には、ステレオ内視鏡ビデオで境界ボックスで表される軟組織の動きを追跡するアルゴリズムを開発するというタスクが割り当てられました。
チャレンジの最後に、開発されたメソッドは、以前に隠されていたテスト サブセットで評価されました。
この評価では、軟組織の追跡における教師なし深層学習アルゴリズムの有効性を検証するために、この課題のために意図的に開発されたベンチマーク指標を使用します。
メソッドのランク付けに使用されるメトリクスは、トラッカーとグラウンド トゥルース境界ボックスの間の平均オーバーラップを測定する予想平均オーバーラップ (EAO) スコアでした。
このチャレンジで最初に輝いたのは、ICVS-2Ai による深層学習の提出で、0.617 という優れた EAO スコアを獲得しました。
この方法では、ARFlow を使用して、フォトメトリック損失と正則化損失を使用して、トリミングされた画像から教師なしの高密度オプティカル フローを推定します。
2 番目に、EAO が 0.583 の Jmees は、非深層学習ベースライン手法である CSRT に加えて、手術器具のセグメンテーションに深層学習を使用しています。
CSRT 自体の EAO スコアは、0.563 と同様です。
この課題の結果は、現在、非ディープラーニング手法がまだ競争力があることを示しています。
このチャレンジのために作成されたデータセットとベンチマーク ツールは、https://surgt.grand-challenge.org/ で公開されています。

要約(オリジナル)

This paper introduces the “SurgT: Surgical Tracking’ challenge which was organised in conjunction with MICCAI 2022. There were two purposes for the creation of this challenge: (1) the establishment of the first standardised benchmark for the research community to assess soft-tissue trackers; and (2) to encourage the development of unsupervised deep learning methods, given the lack of annotated data in surgery. A dataset of 157 stereo endoscopic videos from 20 clinical cases, along with stereo camera calibration parameters, have been provided. Participants were assigned the task of developing algorithms to track the movement of soft tissues, represented by bounding boxes, in stereo endoscopic videos. At the end of the challenge, the developed methods were assessed on a previously hidden test subset. This assessment uses benchmarking metrics that were purposely developed for this challenge, to verify the efficacy of unsupervised deep learning algorithms in tracking soft-tissue. The metric used for ranking the methods was the Expected Average Overlap (EAO) score, which measures the average overlap between a tracker’s and the ground truth bounding boxes. Coming first in the challenge was the deep learning submission by ICVS-2Ai with a superior EAO score of 0.617. This method employs ARFlow to estimate unsupervised dense optical flow from cropped images, using photometric and regularization losses. Second, Jmees with an EAO of 0.583, uses deep learning for surgical tool segmentation on top of a non-deep learning baseline method: CSRT. CSRT by itself scores a similar EAO of 0.563. The results from this challenge show that currently, non-deep learning methods are still competitive. The dataset and benchmarking tool created for this challenge have been made publicly available at https://surgt.grand-challenge.org/.

arxiv情報

著者 Joao Cartucho,Alistair Weld,Samyakh Tukra,Haozheng Xu,Hiroki Matsuzaki,Taiyo Ishikawa,Minjun Kwon,Yong Eun Jang,Kwang-Ju Kim,Gwang Lee,Bizhe Bai,Lueder Kahrs,Lars Boecking,Simeon Allmendinger,Leopold Muller,Yitong Zhang,Yueming Jin,Sophia Bano,Francisco Vasconcelos,Wolfgang Reiter,Jonas Hajek,Bruno Silva,Estevao Lima,Joao L. Vilaca,Sandro Queiros,Stamatia Giannarou
発行日 2023-08-30 20:36:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO, eess.IV パーマリンク