要約
医学生や若手外科医は、外科を学ぶ際に質問に答えてくれる上級外科医や専門家に頼ることがよくあります。
しかし、専門家は臨床や学術的な仕事で忙しいことが多く、指導を行う時間がほとんどありません。
一方、既存のディープラーニング(DL)ベースの外科用ビジュアル質問応答(VQA)システムは、答えの場所が不明な単純な答えしか提供できません。
さらに、ビジョン言語 (ViL) の埋め込みは、この種のタスクではまだあまり調査されていません。
したがって、外科用 Visual Question Localized-Answering (VQLA) システムは、医学生や若手外科医が録画された外科ビデオから学び理解するのに役立ちます。
我々は、検出モデルによる特徴抽出を必要としない、外科シナリオにおける VQLA 用の Co-Attendant GaTed Vision-Language (CAT-ViL) を備えたエンドツーエンドのトランスフォーマーを提案します。
CAT-ViL 埋め込みモジュールは、ビジュアル ソースとテキスト ソースからの異種機能を融合するように設計されています。
融合された埋め込みは、統合予測のための並列分類器と検出器の前に、標準のデータ効率画像変換器 (DeiT) モジュールに供給されます。
私たちは、MICCAI EndoVis Challenge 2017 および 2018 の公開手術ビデオで実験検証を実施します。実験結果は、最先端のアプローチと比較して、私たちが提案したモデルの優れたパフォーマンスと堅牢性を強調しています。
アブレーション研究により、提案されたすべてのコンポーネントの優れた性能がさらに証明されています。
提案された方法は、手術シーンを理解するための有望なソリューションを提供し、手術トレーニングのための人工知能 (AI) ベースの VQLA システムの主要なステップを開きます。
私たちのコードは公開されています。
要約(オリジナル)
Medical students and junior surgeons often rely on senior surgeons and specialists to answer their questions when learning surgery. However, experts are often busy with clinical and academic work, and have little time to give guidance. Meanwhile, existing deep learning (DL)-based surgical Visual Question Answering (VQA) systems can only provide simple answers without the location of the answers. In addition, vision-language (ViL) embedding is still a less explored research in these kinds of tasks. Therefore, a surgical Visual Question Localized-Answering (VQLA) system would be helpful for medical students and junior surgeons to learn and understand from recorded surgical videos. We propose an end-to-end Transformer with Co-Attention gaTed Vision-Language (CAT-ViL) for VQLA in surgical scenarios, which does not require feature extraction through detection models. The CAT-ViL embedding module is designed to fuse heterogeneous features from visual and textual sources. The fused embedding will feed a standard Data-Efficient Image Transformer (DeiT) module, before the parallel classifier and detector for joint prediction. We conduct the experimental validation on public surgical videos from MICCAI EndoVis Challenge 2017 and 2018. The experimental results highlight the superior performance and robustness of our proposed model compared to the state-of-the-art approaches. Ablation studies further prove the outstanding performance of all the proposed components. The proposed method provides a promising solution for surgical scene understanding, and opens up a primary step in the Artificial Intelligence (AI)-based VQLA system for surgical training. Our code is publicly available.
arxiv情報
著者 | Long Bai,Mobarakol Islam,Hongliang Ren |
発行日 | 2023-07-11 11:35:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google