Online Video Quality Enhancement with Spatial-Temporal Look-up Tables

要約

ビデオ会議やクラウド ゲームなどのオンライン ビデオ ベースのアプリケーションでは、低遅延が非常に重要であり、オンライン シナリオでのビデオ品質の向上がますます重要になっています。
ただし、既存の品質向上方法は、推論速度が遅いことと、将来のフレームに含まれる時間情報の要件によって制限されているため、オンライン タスクに直接導入することが困難です。
この論文では、めったに研究されていないオンライン ビデオ品質向上 (Online-VQE) 問題に対処するために特別に設計された新しい方法 STLVQE を提案します。
当社の STLVQE は、冗長な計算を大幅に削減し、ネットワークの伝播、調整、拡張モジュールを再設計するモジュールに依存しない特徴抽出機能を含む新しい VQE フレームワークを設計します。
大幅な推論時間を節約しながらビデオ内の時空間情報を抽出する時空間ルックアップ テーブル (STL) が提案されています。
私たちの知る限り、私たちはビデオ タスクの時間情報を抽出するために LUT 構造を利用した最初の企業です。
MFQE 2.0 データセットに関する広範な実験により、STLVQE が満足のいくパフォーマンスと速度のトレードオフを達成していることが実証されました。

要約(オリジナル)

Low latency rates are crucial for online video-based applications, such as video conferencing and cloud gaming, which make improving video quality in online scenarios increasingly important. However, existing quality enhancement methods are limited by slow inference speed and the requirement for temporal information contained in future frames, making it challenging to deploy them directly in online tasks. In this paper, we propose a novel method, STLVQE, specifically designed to address the rarely studied online video quality enhancement (Online-VQE) problem. Our STLVQE designs a new VQE framework which contains a Module-Agnostic Feature Extractor that greatly reduces the redundant computations and redesign the propagation, alignment, and enhancement module of the network. A Spatial-Temporal Look-up Tables (STL) is proposed, which extracts spatial-temporal information in videos while saving substantial inference time. To the best of our knowledge, we are the first to exploit the LUT structure to extract temporal information in video tasks. Extensive experiments on the MFQE 2.0 dataset demonstrate that our STLVQE achieves a satisfactory performance-speed trade-off.

arxiv情報

著者 Zefan Qu,Xinyang Jiang,Yifan Yang,Dongsheng Li,Cairong Zhao
発行日 2024-07-10 14:06:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク