Accurate Real-time Polyp Detection in Videos from Concatenation of Latent Features Extracted from Consecutive Frames

要約

ポリープ検出のためにリアルタイムで実装できる効率的な深層学習モデルは、スクリーニング手順中のポリープのミス率を減らすために重要です。
畳み込みニューラル ネットワーク (CNN) は、入力画像の小さな変化に対して脆弱です。
CNN ベースのモデルは、一連の連続するフレームに現れる同じポリープを見逃す可能性があり、カメラのポーズ、照明条件、光の反射などの変化により、微妙な検出出力を生成する可能性があります。
隣接フレーム間の情報。
モデルに複雑さを追加することなく、CNN ベースのエンコーダー/デコーダー モデルの効率的な機能連結方法を提案します。
提案された方法は、現在のフレームのポリープを検出するために、前のフレームの抽出された特徴マップを組み込みます。
実験結果は、提案された機能連結の方法がビデオの自動ポリープ検出の全体的なパフォーマンスを向上させることを示しています。
次の結果は公開ビデオ データセットで得られます: 感度 90.94\%、精度 90.53\%、特異度 92.46%

要約(オリジナル)

An efficient deep learning model that can be implemented in real-time for polyp detection is crucial to reducing polyp miss-rate during screening procedures. Convolutional neural networks (CNNs) are vulnerable to small changes in the input image. A CNN-based model may miss the same polyp appearing in a series of consecutive frames and produce unsubtle detection output due to changes in camera pose, lighting condition, light reflection, etc. In this study, we attempt to tackle this problem by integrating temporal information among neighboring frames. We propose an efficient feature concatenation method for a CNN-based encoder-decoder model without adding complexity to the model. The proposed method incorporates extracted feature maps of previous frames to detect polyps in the current frame. The experimental results demonstrate that the proposed method of feature concatenation improves the overall performance of automatic polyp detection in videos. The following results are obtained on a public video dataset: sensitivity 90.94\%, precision 90.53\%, and specificity 92.46%

arxiv情報

著者 Hemin Ali Qadir,Younghak Shin,Jacob Bergsland,Ilangko Balasingham
発行日 2023-03-10 11:51:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.LG パーマリンク