要約
点群のダウンサンプリングは、いくつか例を挙げると、データ サイズを統一して計算コストを削減するために、点をダウンサンプリングするための重要な前処理操作です。
点群ダウンサンプリングに関する最近の研究は、タスクを意識した方法でサンプリングすることを学ぶことに集中して大きな成功を収めました。
ただし、既存の学習可能なサンプラーは、任意のサイズのダウンサンプリングを直接実行できず、入力サイズが固定されていると仮定します。
このホワイト ペーパーでは、AS-PD を紹介します。AS-PD は、サンプルから改良への戦略に基づいて点群を任意の小さなサイズに直接ダウンサンプリングする新しいタスク認識型サンプリング フレームワークです。
任意のサイズの入力ポイント クラウドが与えられた場合、最初に入力ポイント クラウドに対してタスクに依存しない事前サンプリングを指定されたサンプル サイズで実行します。
次に、プリサンプリングされたセットを改良して、ダウンストリームのタスク損失によって駆動されるタスク対応にすることで、サンプリングされたセットを取得します。
改良は、事前にサンプリングされた各ポイントに、ポイント単位の多層パーセプトロン (MLP) によって予測された小さなオフセットを追加することによって実現されます。
密度エンコーディングと適切なトレーニング スキームを使用すると、フレームワークは、さまざまな入力サイズの点群を任意のサンプル サイズに適応的にダウンサンプリングすることを学習できます。
分類タスクと登録タスクのサンプル結果をそれぞれ評価します。
提案された AS-PD は、ダウンストリーム パフォーマンスの点で最先端の方法を上回ります。
さらなる実験では、AS-PD が目に見えないタスク モデルに対してより優れた一般性を示すことも示されています。これは、提案されたサンプラーが特定のタスク モデルではなくタスクに対して最適化されていることを意味します。
要約(オリジナル)
Point cloud downsampling is a crucial pre-processing operation to downsample points in order to unify data size and reduce computational cost, to name a few. Recent research on point cloud downsampling has achieved great success which concentrates on learning to sample in a task-aware way. However, existing learnable samplers can not directly perform arbitrary-size downsampling, and assume the input size is fixed. In this paper, we introduce the AS-PD, a novel task-aware sampling framework that directly downsamples point clouds to any smaller size based on a sample-to-refine strategy. Given an input point cloud of arbitrary size, we first perform a task-agnostic pre-sampling on the input point cloud to a specified sample size. Then, we obtain the sampled set by refining the pre-sampled set to make it task-aware, driven by downstream task losses. The refinement is realized by adding each pre-sampled point with a small offset predicted by point-wise multi-layer perceptrons (MLPs). With the density encoding and proper training scheme, the framework can learn to adaptively downsample point clouds of different input sizes to arbitrary sample sizes. We evaluate sampled results for classification and registration tasks, respectively. The proposed AS-PD surpasses the state-of-the-art method in terms of downstream performance. Further experiments also show that our AS-PD exhibits better generality to unseen task models, implying that the proposed sampler is optimized to the task rather than a specified task model.
arxiv情報
著者 | Peng Zhang,Ruoyin Xie,Jinsheng Sun,Weiqing Li,Zhiyong Su |
発行日 | 2023-01-10 02:18:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google