BIRD-PCC: Bi-directional Range Image-based Deep LiDAR Point Cloud Compression

要約

LiDAR センサーによって収集される大量のデータは、LiDAR ポイント クラウド圧縮 (PCC) の問題をもたらします。
距離画像ベースの LiDAR PCC に関する以前の研究は、予測コーディング パラダイムに従い、コーディング フレームワークの単純なプロトタイプを構築しました。
ただし、それらの予測方法は、距離画像内の無効なピクセルを無視したり、時間ステップで将来のフレームを省略したりするため、不正確な結果をもたらします。
さらに、残差コーディング方法の手作りの設計では、空間的な冗長性を十分に活用できませんでした。
これを改善するために、コーディング フレームワーク BIRD-PCC を提案します。
私たちの予測モジュールは、距離画像内の無効なピクセルの座標を認識しており、双方向スキームを採用しています。
また、残差フレーム内の空間冗長性をさらに活用できる、ディープラーニングされた残差コーディング モジュールを導入します。
SemanticKITTI および KITTI-360 データセットで実施された実験では、ほとんどのビットレート条件で BIRD-PCC が他の方法よりも優れており、目に見えない環境にうまく一般化できることが示されています。

要約(オリジナル)

The large amount of data collected by LiDAR sensors brings the issue of LiDAR point cloud compression (PCC). Previous works on range image-based LiDAR PCC follow the predictive coding paradigm, structuring a simple prototype of a coding framework. However, their prediction methods give an inaccurate result due to the negligence of invalid pixels in range images and the omission of future frames in the time step. Moreover, their handcrafted design of residual coding methods could not fully exploit spatial redundancy. To remedy this, we propose a coding framework BIRD-PCC. Our prediction module is aware of the coordinates of invalid pixels in range images and takes a bidirectional scheme. Also, we introduce a deep-learned residual coding module that can further exploit spatial redundancy within a residual frame. Experiments conducted on SemanticKITTI and KITTI-360 datasets show that BIRD-PCC outperforms other methods in most bitrate conditions and generalizes well to unseen environments.

arxiv情報

著者 Chia-Sheng Liu,Jia-Fong Yeh,Hao Hsu,Hung-Ting Su,Ming-Sui Lee,Winston H. Hsu
発行日 2023-03-07 16:39:09+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.MM, cs.RO パーマリンク