要約
学習型ビデオ符号化(LVC)は近年、優れた符号化性能を達成している。本論文では、学習型ビデオ符号化におけるレートと品質(R-Q)の関係をパラメトリック関数でモデル化する。RQNetと呼ばれるニューラルネットワークを学習し、映像コンテンツと符号化コンテキストに応じたビットレートと品質レベルの関係を特徴付ける。予測された(R,Q)結果は、さらに最小二乗法を用いて以前に符号化されたフレームからの結果と統合され、R-Qモデルのパラメータをその場で決定する。従来のアプローチと比較して、我々の方法はR-Q関係を正確に推定し、柔軟性と精度の両方を向上させるモデルパラメータのオンライン適応を可能にする。実験の結果、我々のR-Qモデルは、一般的に使用されるデータセットにおいて、最小限の複雑さを追加するだけで、ベースライン法よりも大幅に小さいビットレートの偏差を達成することが示された。
要約(オリジナル)
Learned video coding (LVC) has recently achieved superior coding performance. In this paper, we model the rate-quality (R-Q) relationship for learned video coding by a parametric function. We learn a neural network, termed RQNet, to characterize the relationship between the bitrate and quality level according to video content and coding context. The predicted (R,Q) results are further integrated with those from previously coded frames using the least-squares method to determine the parameters of our R-Q model on-the-fly. Compared to the conventional approaches, our method accurately estimates the R-Q relationship, enabling the online adaptation of model parameters to enhance both flexibility and precision. Experimental results show that our R-Q model achieves significantly smaller bitrate deviations than the baseline method on commonly used datasets with minimal additional complexity.
arxiv情報
著者 | Sang NguyenQuang,Cheng-Wei Chen,Xiem HoangVan,Wen-Hsiao Peng |
発行日 | 2025-05-05 15:19:18+00:00 |
arxivサイト | arxiv_id(pdf) |