要約
LiDAR センサーによって収集される大量のデータは、LiDAR ポイント クラウド圧縮 (PCC) の問題をもたらします。
LiDAR PCC に関する以前の研究では、距離画像表現を使用し、予測コーディング パラダイムに従って、コーディング フレームワークの基本的なプロトタイプを作成しました。
ただし、それらの予測方法は、距離画像内の無効なピクセルを無視したり、時間ステップで将来のフレームを省略したりするため、不正確な結果をもたらします。
さらに、残差コーディング方法の手作りの設計では、空間的な冗長性を十分に活用できませんでした。
これを改善するために、コーディング フレームワーク BIRD-PCC を提案します。
私たちの予測モジュールは、距離画像内の無効なピクセルの座標を認識しており、双方向スキームを採用しています。
また、残差フレーム内の空間冗長性をさらに活用できる、ディープラーニングされた残差コーディング モジュールを導入します。
SemanticKITTI および KITTI-360 データセットで実施された実験では、ほとんどのビットレート条件で BIRD-PCC が他の方法よりも優れており、目に見えない環境にうまく一般化できることが示されています。
要約(オリジナル)
The large amount of data collected by LiDAR sensors brings the issue of LiDAR point cloud compression (PCC). Previous works on LiDAR PCC have used range image representations and followed the predictive coding paradigm to create a basic prototype of a coding framework. However, their prediction methods give an inaccurate result due to the negligence of invalid pixels in range images and the omission of future frames in the time step. Moreover, their handcrafted design of residual coding methods could not fully exploit spatial redundancy. To remedy this, we propose a coding framework BIRD-PCC. Our prediction module is aware of the coordinates of invalid pixels in range images and takes a bidirectional scheme. Also, we introduce a deep-learned residual coding module that can further exploit spatial redundancy within a residual frame. Experiments conducted on SemanticKITTI and KITTI-360 datasets show that BIRD-PCC outperforms other methods in most bitrate conditions and generalizes well to unseen environments.
arxiv情報
著者 | Chia-Sheng Liu,Jia-Fong Yeh,Hao Hsu,Hung-Ting Su,Ming-Sui Lee,Winston H. Hsu |
発行日 | 2023-03-09 02:58:24+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google