UCVC: A Unified Contextual Video Compression Framework with Joint P-frame and B-frame Coding

要約

本論文は、DCC 2024の第6回Challenge on Learned Image Compression (CLIC)のビデオ圧縮トラックに対応した、学習型ビデオ圧縮手法を提示する。具体的には、PフレームとBフレームを共同で符号化するための、統一的な文脈ビデオ圧縮フレームワーク(UCVC)を提案する。各非内部フレームは、隣接する2つの復号化フレームを指し、Pフレーム圧縮の場合は両方が過去から、Bフレーム圧縮の場合は1つが過去から、1つが未来からとなる。学習段階では、PフレームとBフレームの両方を用いてモデルパラメータを共同で最適化する。チャレンジ提出に関しては、各テストシーケンスに対して適切なフレームタイプを選択することで、最適な圧縮効率を報告する。チーム名はPKUSZ-LVCです。

要約(オリジナル)

This paper presents a learned video compression method in response to video compression track of the 6th Challenge on Learned Image Compression (CLIC), at DCC 2024.Specifically, we propose a unified contextual video compression framework (UCVC) for joint P-frame and B-frame coding. Each non-intra frame refers to two neighboring decoded frames, which can be either both from the past for P-frame compression, or one from the past and one from the future for B-frame compression. In training stage, the model parameters are jointly optimized with both P-frames and B-frames. Benefiting from the designs, the framework can support both P-frame and B-frame coding and achieve comparable compression efficiency with that specifically designed for P-frame or B-frame.As for challenge submission, we report the optimal compression efficiency by selecting appropriate frame types for each test sequence. Our team name is PKUSZ-LVC.

arxiv情報

著者 Jiayu Yang,Wei Jiang,Yongqi Zhai,Chunhui Yang,Ronggang Wang
発行日 2024-02-02 10:25:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV パーマリンク