Preserving Privacy in Surgical Video Analysis Using Artificial Intelligence: A Deep Learning Classifier to Identify Out-of-Body Scenes in Endoscopic Videos

要約

目的: 内視鏡ビデオ内の体外離脱画像を識別するための深層学習モデルを開発および検証すること。
背景: 外科ビデオ分析は教育と研究を促進します。
ただし、内視鏡手術のビデオ録画には、特に体外離脱シーンが録画されている場合、プライバシーに関わる情報が含まれる可能性があります。
したがって、内視鏡ビデオにおける体外離脱シーンの特定は、患者と手術室スタッフのプライバシーを保護するために非常に重要です。
方法: 12 種類の異なる腹腔鏡手術とロボット手術の内部データセットに基づいて深層学習モデルがトレーニングされ、評価されました。
腹腔鏡下胃バイパス術と胆嚢摘出術の 2 つの独立した多中心検査データセットに対して外部検証が実行されました。
ビデオ データセットから抽出されたすべての画像には、体内または体外の注釈が付けられました。
モデルのパフォーマンスは、受信機動作特性曲線下面積 (ROC AUC) を測定する人間のグラウンド トゥルース アノテーションと比較して評価されました。
結果: 48 本のビデオからの 356,267 個の画像で構成される内部データセットと、それぞれ 10 個と 20 本のビデオからの 54,385 個と 58,349 個の画像で構成される 2 つの多中心テスト データセットに注釈が付けられました。
グラウンド トゥルース アノテーションと比較すると、モデルは内部テスト データセット上で 99.97% ROC AUC の体外離脱画像を識別しました。
多中心性胃バイパスデータセットの平均 $\pm$ 標準偏差 ROC AUC は、多中心性胆嚢摘出術データセットでそれぞれ 99.94$\pm$0.07% および 99.71$\pm$0.40% でした。
結論: 提案された深層学習モデルは、内視鏡ビデオ内の体外離脱画像を確実に識別できます。
トレーニングされたモデルはパブリックに共有されます。
これにより、手術ビデオ分析におけるプライバシーの保護が容易になります。

要約(オリジナル)

Objective: To develop and validate a deep learning model for the identification of out-of-body images in endoscopic videos. Background: Surgical video analysis facilitates education and research. However, video recordings of endoscopic surgeries can contain privacy-sensitive information, especially if out-of-body scenes are recorded. Therefore, identification of out-of-body scenes in endoscopic videos is of major importance to preserve the privacy of patients and operating room staff. Methods: A deep learning model was trained and evaluated on an internal dataset of 12 different types of laparoscopic and robotic surgeries. External validation was performed on two independent multicentric test datasets of laparoscopic gastric bypass and cholecystectomy surgeries. All images extracted from the video datasets were annotated as inside or out-of-body. Model performance was evaluated compared to human ground truth annotations measuring the receiver operating characteristic area under the curve (ROC AUC). Results: The internal dataset consisting of 356,267 images from 48 videos and the two multicentric test datasets consisting of 54,385 and 58,349 images from 10 and 20 videos, respectively, were annotated. Compared to ground truth annotations, the model identified out-of-body images with 99.97% ROC AUC on the internal test dataset. Mean $\pm$ standard deviation ROC AUC on the multicentric gastric bypass dataset was 99.94$\pm$0.07% and 99.71$\pm$0.40% on the multicentric cholecystectomy dataset, respectively. Conclusion: The proposed deep learning model can reliably identify out-of-body images in endoscopic videos. The trained model is publicly shared. This facilitates privacy preservation in surgical video analysis.

arxiv情報

著者 Joël L. Lavanchy,Armine Vardazaryan,Pietro Mascagni,AI4SafeChole Consortium,Didier Mutter,Nicolas Padoy
発行日 2023-06-07 11:02:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク