Enhancing Space-time Video Super-resolution via Spatial-temporal Feature Interaction

要約

タイトル:空間・時間フィーチャー相互作用によるスペースタイムビデオスーパーリゾリューションの向上

要約:
– スペースタイムビデオスーパーリゾリューション(STVSR)の目的は、与えられたビデオのフレームレート(時間分解能)と空間分解能の両方を向上させることです。
– 最近のアプローチでは、エンドツーエンドのディープニューラルネットワークを用いてSTVSRを解決する方法があります。
– しかし、空間的分解能の異なる機能の間の空間的相関が重要であるにもかかわらず、従来の方法では強調されていない。
– 本論文では、異なるフレームと空間分解能の機能の間の空間的相関と時間的相関を活用してSTVSRを向上させる空間-時間フィーチャー相互作用ネットワークを提案する。
– 具体的には、空間-時間フレーム補間モジュールを導入し、低解像度および高解像度の中間フレームフィーチャーを同時に対話的に補間する。
– 空間-時間ローカルおよびグローバル補正モジュールは、それらの補正のために異なるフィーチャーの空間的時間的相関を各々活用する。
– 最後に、新しい動作の一致損失が適用され、再構築されたフレームの動きの一貫性を向上させる。
– Vid4、Vimeo-90K、Adobe240の3つの標準ベンチマークで実験を行い、結果は、我々の方法がかなり改善されたことを示しています。

要約(オリジナル)

The target of space-time video super-resolution (STVSR) is to increase both the frame rate (also referred to as the temporal resolution) and the spatial resolution of a given video. Recent approaches solve STVSR using end-to-end deep neural networks. A popular solution is to first increase the frame rate of the video; then perform feature refinement among different frame features; and last increase the spatial resolutions of these features. The temporal correlation among features of different frames is carefully exploited in this process. The spatial correlation among features of different (spatial) resolutions, despite being also very important, is however not emphasized. In this paper, we propose a spatial-temporal feature interaction network to enhance STVSR by exploiting both spatial and temporal correlations among features of different frames and spatial resolutions. Specifically, the spatial-temporal frame interpolation module is introduced to interpolate low- and high-resolution intermediate frame features simultaneously and interactively. The spatial-temporal local and global refinement modules are respectively deployed afterwards to exploit the spatial-temporal correlation among different features for their refinement. Finally, a novel motion consistency loss is employed to enhance the motion continuity among reconstructed frames. We conduct experiments on three standard benchmarks, Vid4, Vimeo-90K and Adobe240, and the results demonstrate that our method improves the state of the art methods by a considerable margin. Our codes will be available at https://github.com/yuezijie/STINet-Space-time-Video-Super-resolution.

arxiv情報

著者 Zijie Yue,Miaojing Shi
発行日 2023-04-20 06:48:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV パーマリンク