Scalable Human-Machine Point Cloud Compression

要約

エッジデバイスの計算能力には限界があるため、ディープラーニング推論は非常に高価になる可能性があります。
解決策の 1 つは、点群データを圧縮してネットワーク経由で送信し、サーバー側で処理することです。
残念ながら、このアプローチは、利用可能なビットレートなどのネットワーク要因の影響を受けやすい可能性があります。
幸いなことに、マシン タスクに特化したコーデックを使用することで、推論の精度を犠牲にすることなくビットレート要件を軽減できます。
この論文では、機械による分類タスクに特化した点群データ用のスケーラブルなコーデックを紹介し、同時に人間による表示のためのメカニズムも提供します。
提案されたスケーラブル コーデックでは、「ベース」ビットストリームはマシン タスクをサポートし、「拡張」ビットストリームは人間が見るための入力再構成パフォーマンスを向上させるために使用できます。
私たちは PointNet++ に基づいてアーキテクチャを構築し、ModelNet40 データセットでその有効性をテストします。
以前の非特化コーデックに比べて大幅な改善が見られます。

要約(オリジナル)

Due to the limited computational capabilities of edge devices, deep learning inference can be quite expensive. One remedy is to compress and transmit point cloud data over the network for server-side processing. Unfortunately, this approach can be sensitive to network factors, including available bitrate. Luckily, the bitrate requirements can be reduced without sacrificing inference accuracy by using a machine task-specialized codec. In this paper, we present a scalable codec for point-cloud data that is specialized for the machine task of classification, while also providing a mechanism for human viewing. In the proposed scalable codec, the ‘base’ bitstream supports the machine task, and an ‘enhancement’ bitstream may be used for better input reconstruction performance for human viewing. We base our architecture on PointNet++, and test its efficacy on the ModelNet40 dataset. We show significant improvements over prior non-specialized codecs.

arxiv情報

著者 Mateen Ulhaq,Ivan V. Bajić
発行日 2024-02-23 18:41:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, eess.IV パーマリンク