IndGIC: Supervised Action Recognition under Low Illumination

要約

暗闇での人間の行動認識技術は、監視、動作制御、人間とコンピューターの相互作用における大きな需要としてますます注目を集めています。
ただし、画像強調方法と低照度のビデオ データセットには制限があるため、例:
ラベル付けにコストがかかるため、既存の方法にはいくつかの問題があります。
一部のビデオベースのアプローチは、特定のデータセットでは効果的で効率的ですが、ほとんどの場合に一般化することはできません。一方、複数のセンサーを使用する他の方法は、ビデオ ストリームからのノイズの多い性質に対処するために事前の知識に大きく依存しています。
本稿では、深層多入力ネットワークを用いた行動認識手法を提案する。
さらに、照明不足のビデオを強化するために、1 フレームに対して 1 つのガンマを生成して強化パフォーマンスを向上させる独立ガンマ強度補正 (Ind-GIC) を提案しました。
私たちの方法が有効であることを証明するために、私たちの方法と既存の方法の間の評価と比較が必要です。
実験結果は、私たちのモデルが ARID データセットで高い精度を達成していることを示しています。

要約(オリジナル)

Technologies of human action recognition in the dark are gaining more and more attention as huge demand in surveillance, motion control and human-computer interaction. However, because of limitation in image enhancement method and low-lighting video datasets, e.g. labeling cost, existing methods meet some problems. Some video-based approached are effect and efficient in specific datasets but cannot generalize to most cases while others methods using multiple sensors rely heavily to prior knowledge to deal with noisy nature from video stream. In this paper, we proposes action recognition method using deep multi-input network. Furthermore, we proposed a Independent Gamma Intensity Corretion (Ind-GIC) to enhance poor-illumination video, generating one gamma for one frame to increase enhancement performance. To prove our method is effective, there is some evaluation and comparison between our method and existing methods. Experimental results show that our model achieves high accuracy in on ARID dataset.

arxiv情報

著者 Jingbo Zeng
発行日 2023-08-29 14:41:10+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV パーマリンク