要約
現在のビデオ コーデックは非常に低いビットレートで動作できないため、ネットワークの状態が悪化すると、ビデオ会議システムはユーザー エクスペリエンスの低下に悩まされます。
最近、顔のランドマーク情報などの各フレームのまばらな表現を使用して、非常に低いビットレートで話している人のビデオを再構築するいくつかのニューラル代替案が提案されています。
ただし、これらのアプローチでは、通話中に大きな動きや閉塞が発生するシナリオでは再構成がうまくいかず、より高い解像度に拡張できません。
新しい高周波条件付き超解像度パイプラインに基づくビデオ会議用の新しいニューラル圧縮システムであるジェミノを設計します。
ジェミノは、単一の高解像度参照画像から抽出された情報に基づいて、高周波の詳細 (肌の質感、髪など) を強調しながら、各ターゲット フレームの非常に低解像度のバージョンをアップサンプリングします。
モデルのさまざまなコンポーネントをさまざまな解像度で実行するマルチスケール アーキテクチャを使用して、720p に匹敵する解像度にスケーリングできるようにします。また、モデルをパーソナライズして各人物の特定の詳細を学習し、低ビットレートでより優れた忠実度を実現します。
WebRTC のオープンソース Python 実装である aiortc の上に Gemino を実装し、A100 GPU でリアルタイムに 1024×1024 ビデオで動作し、同じ知覚品質で従来のビデオ コーデックよりも 2.9 倍低いビットレートを達成することを示します。
要約(オリジナル)
Video conferencing systems suffer from poor user experience when network conditions deteriorate because current video codecs simply cannot operate at extremely low bitrates. Recently, several neural alternatives have been proposed that reconstruct talking head videos at very low bitrates using sparse representations of each frame such as facial landmark information. However, these approaches produce poor reconstructions in scenarios with major movement or occlusions over the course of a call, and do not scale to higher resolutions. We design Gemino, a new neural compression system for video conferencing based on a novel high-frequency-conditional super-resolution pipeline. Gemino upsamples a very low-resolution version of each target frame while enhancing high-frequency details (e.g., skin texture, hair, etc.) based on information extracted from a single high-resolution reference image. We use a multi-scale architecture that runs different components of the model at different resolutions, allowing it to scale to resolutions comparable to 720p, and we personalize the model to learn specific details of each person, achieving much better fidelity at low bitrates. We implement Gemino atop aiortc, an open-source Python implementation of WebRTC, and show that it operates on 1024×1024 videos in real-time on a A100 GPU, and achieves 2.9x lower bitrate than traditional video codecs for the same perceptual quality.
arxiv情報
著者 | Vibhaalakshmi Sivaraman,Pantea Karimi,Vedantha Venkatapathy,Mehrdad Khani,Sadjad Fouladi,Mohammad Alizadeh,Frédo Durand,Vivienne Sze |
発行日 | 2022-09-21 17:10:46+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google