Preserving Privacy in Surgical Video Analysis Using Artificial Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in Endoscopic Videos

要約

目的: 内視鏡ビデオの体外画像を識別するためのディープ ラーニング モデルを開発し、検証すること。
背景: 手術ビデオ分析は、教育と研究を容易にします。
ただし、内視鏡手術のビデオ録画には、特に体外離脱シーンが録画されている場合、プライバシーに配慮した情報が含まれる可能性があります。
したがって、内視鏡ビデオの体外シーンの識別は、患者と手術室スタッフのプライバシーを保護するために非常に重要です。
方法: 深層学習モデルは、12 種類の腹腔鏡手術およびロボット手術の内部データセットでトレーニングおよび評価されました。
外部検証は、腹腔鏡下胃バイパス手術と胆嚢摘出手術の 2 つの独立した多中心テスト データセットに対して実行されました。
ビデオ データセットから抽出されたすべての画像には、体内または体外として注釈が付けられました。
モデルのパフォーマンスは、曲線下の受信機動作特性領域 (ROC AUC) を測定する人間のグラウンド トゥルース アノテーションと比較して評価されました。
結果: 48 本のビデオからの 356,267 枚の画像からなる内部データセットと、10 本と 20 本のビデオからのそれぞれ 54,385 枚と 58,349 枚の画像からなる 2 つの多中心テスト データセットに注釈が付けられました。
グラウンド トゥルース アノテーションと比較して、モデルは、内部テスト データセットで 99.97% ROC AUC の体外画像を識別しました。
多中心性胃バイパス データセットの平均 $\pm$ 標準偏差 ROC AUC は、多中心性胆嚢摘出術データセットでそれぞれ 99.94$\pm$0.07% および 99.71$\pm$0.40% でした。
結論: 提案されたディープ ラーニング モデルは、内視鏡ビデオの体外画像を確実に識別できます。
トレーニング済みのモデルはパブリックに共有されます。
これにより、手術ビデオ分析におけるプライバシー保護が容易になります。

要約(オリジナル)

Objective: To develop and validate a deep learning model for the identification of out-of-body images in endoscopic videos. Background: Surgical video analysis facilitates education and research. However, video recordings of endoscopic surgeries can contain privacy-sensitive information, especially if out-of-body scenes are recorded. Therefore, identification of out-of-body scenes in endoscopic videos is of major importance to preserve the privacy of patients and operating room staff. Methods: A deep learning model was trained and evaluated on an internal dataset of 12 different types of laparoscopic and robotic surgeries. External validation was performed on two independent multicentric test datasets of laparoscopic gastric bypass and cholecystectomy surgeries. All images extracted from the video datasets were annotated as inside or out-of-body. Model performance was evaluated compared to human ground truth annotations measuring the receiver operating characteristic area under the curve (ROC AUC). Results: The internal dataset consisting of 356,267 images from 48 videos and the two multicentric test datasets consisting of 54,385 and 58,349 images from 10 and 20 videos, respectively, were annotated. Compared to ground truth annotations, the model identified out-of-body images with 99.97% ROC AUC on the internal test dataset. Mean $\pm$ standard deviation ROC AUC on the multicentric gastric bypass dataset was 99.94$\pm$0.07% and 99.71$\pm$0.40% on the multicentric cholecystectomy dataset, respectively. Conclusion: The proposed deep learning model can reliably identify out-of-body images in endoscopic videos. The trained model is publicly shared. This facilitates privacy preservation in surgical video analysis.

arxiv情報

著者 Joël L. Lavanchy,Armine Vardazaryan,Pietro Mascagni,AI4SafeChole Consortium,Didier Mutter,Nicolas Padoy
発行日 2023-01-17 18:09:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク