One-shot domain adaptation in video-based assessment of surgical skills

要約

Deep Learning (DL)は、手術スキルの自動的かつ客観的な評価を実現している。しかし、DLモデルはデータハングリーであり、学習ドメインに制限されています。このため、データが限られた新しいタスクに移行することができません。したがって、実世界でDLを実現するためには、領域適応が重要である。本論文では、メタ学習モデルA-VBANetを提案し、一発学習によりドメインにとらわれない外科手術スキルの分類を実現する。我々は、5つの腹腔鏡およびロボット手術シミュレータ上でA-VBANetを開発する。さらに、腹腔鏡下胆嚢摘出術の手術室(OR)ビデオでテストする。我々のモデルは、シミュレートされたタスクに対してワンショットで99.5%、数ショットで99.9%、腹腔鏡下胆嚢摘出術に対して89.7%の精度で適応することに成功した。初めて、我々は、手術スキルのビデオベースの評価のためのドメイン-診断手順を提供します。このアプローチの重要な意味は、手術室でのパフォーマンスを評価するために、手術シミュレータからのデータを使用することができることである。

要約(オリジナル)

Deep Learning (DL) has achieved automatic and objective assessment of surgical skills. However, DL models are data-hungry and restricted to their training domain. This prevents them from transitioning to new tasks where data is limited. Hence, domain adaptation is crucial to implement DL in real life. Here, we propose a meta-learning model, A-VBANet, that can deliver domain-agnostic surgical skill classification via one-shot learning. We develop the A-VBANet on five laparoscopic and robotic surgical simulators. Additionally, we test it on operating room (OR) videos of laparoscopic cholecystectomy. Our model successfully adapts with accuracies up to 99.5% in one-shot and 99.9% in few-shot settings for simulated tasks and 89.7% for laparoscopic cholecystectomy. For the first time, we provide a domain-agnostic procedure for video-based assessment of surgical skills. A significant implication of this approach is that it allows the use of data from surgical simulators to assess performance in the operating room.

arxiv情報

著者 Erim Yanik,Steven Schwaitzberg,Gene Yang,Xavier Intes,Suvranu De
発行日 2023-02-03 18:24:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.LG, eess.IV パーマリンク