Treasure What You Have: Exploiting Similarity in Deep Neural Networks for Efficient Video Processing

要約

タイトル: 貴重なものを大切に:効率的なビデオ処理のために深層ニューラルネットワークの類似性を利用する

要約:

– 深層学習は、様々なIoTアプリケーションを可能にしている。
– しかしながら、高い精度と計算効率を持つモデルの設計は、特にリアルタイムのビデオ処理アプリケーションでは大きな課題である。
– このようなアプリケーションは、フレーム間およびフレーム内の冗長性が高く、さらなる改善が可能である。
– 本論文では、ビデオフレームのデータ冗長性を効率的に処理するための類似性に配慮したトレーニング方法を提案する。
– 私たちのアプローチは、トレーニング中に重みの類似性を高めることで計算の再利用性を向上させる層ごとの正則化を導入する。
– 私たちは、2つの重要なリアルタイムアプリケーション、レーン検出とシーンパージングに対する手法の妥当性を検証する。
– 私たちは、異なるモデルにおいて同じ精度を維持しながら、平均圧縮率が約50%、スピードアップが約1.5倍観察した。

要約(オリジナル)

Deep learning has enabled various Internet of Things (IoT) applications. Still, designing models with high accuracy and computational efficiency remains a significant challenge, especially in real-time video processing applications. Such applications exhibit high inter- and intra-frame redundancy, allowing further improvement. This paper proposes a similarity-aware training methodology that exploits data redundancy in video frames for efficient processing. Our approach introduces a per-layer regularization that enhances computation reuse by increasing the similarity of weights during training. We validate our methodology on two critical real-time applications, lane detection and scene parsing. We observe an average compression ratio of approximately 50% and a speedup of \sim 1.5x for different models while maintaining the same accuracy.

arxiv情報

著者 Hadjer Benmeziane,Halima Bouzidi,Hamza Ouarnoughi,Ozcan Ozturk,Smail Niar
発行日 2023-05-10 23:18:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク