Video object detection for privacy-preserving patient monitoring in intensive care

要約

集中治療室での患者モニタリングは、バイオセンサーによって支援されていますが、スタッフの継続的な監督が必要です。
スタッフの負担を軽減するために、モニタリング データを記録し、臨床意思決定支援システムを開発するための IT インフラストラクチャが構築されています。
しかし、これらのシステムはアーチファクト(進行中の治療による筋肉の動きなど)に対して脆弱であり、実際の潜在的に危険な信号と区別できないことがよくあります。
ビデオ録画は、物体検出 (OD) 法を使用して、不要なアーティファクトの発生源を見つける生体信号の信頼できる分類を容易にする可能性があります。
プライバシー制限により、ぼやけたビデオのみを保存できるため、標準的な OD 手法では介入や患者の状態の変化などの臨床関連イベントを検出する可能性が大幅に損なわれます。
したがって、ぼやけた映像の情報量が減少することで利用可能なあらゆる種類の情報を活用し、同時に通常の病院の IT インフラストラクチャ内で簡単に実装できる、新しい種類のアプローチが必要です。
この論文では、ビデオフレームの時間的連続における情報を活用するための新しい方法を提案します。
所定のハードウェア制約に準拠する既製のオブジェクト検出器を使用して効率的に実装できるように、画像のカラー チャネルを再利用して時間的一貫性を考慮し、オブジェクト クラスの検出率の向上につながります。
私たちのメソッドは、標準の YOLOv5 ベースライン モデルを +1.7% mAP@.5 上回るパフォーマンスを示し、同時に独自のデータセットで 10 倍以上高速にトレーニングします。
このアプローチは予備実験で有効性を示しており、将来的にはより一般的なビデオ OD の可能性があると結論付けています。

要約(オリジナル)

Patient monitoring in intensive care units, although assisted by biosensors, needs continuous supervision of staff. To reduce the burden on staff members, IT infrastructures are built to record monitoring data and develop clinical decision support systems. These systems, however, are vulnerable to artifacts (e.g. muscle movement due to ongoing treatment), which are often indistinguishable from real and potentially dangerous signals. Video recordings could facilitate the reliable classification of biosignals using object detection (OD) methods to find sources of unwanted artifacts. Due to privacy restrictions, only blurred videos can be stored, which severely impairs the possibility to detect clinically relevant events such as interventions or changes in patient status with standard OD methods. Hence, new kinds of approaches are necessary that exploit every kind of available information due to the reduced information content of blurred footage and that are at the same time easily implementable within the IT infrastructure of a normal hospital. In this paper, we propose a new method for exploiting information in the temporal succession of video frames. To be efficiently implementable using off-the-shelf object detectors that comply with given hardware constraints, we repurpose the image color channels to account for temporal consistency, leading to an improved detection rate of the object classes. Our method outperforms a standard YOLOv5 baseline model by +1.7% mAP@.5 while also training over ten times faster on our proprietary dataset. We conclude that this approach has shown effectiveness in the preliminary experiments and holds potential for more general video OD in the future.

arxiv情報

著者 Raphael Emberger,Jens Michael Boss,Daniel Baumann,Marko Seric,Shufan Huo,Lukas Tuggener,Emanuela Keller,Thilo Stadelmann
発行日 2023-06-26 11:52:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, I.2.10 パーマリンク