DNN Filter for Bias Reduction in Distribution-to-Distribution Scan Matching

要約

正規分布変換(NDT)のような分布対分布(D2D)点群登録技術は、非構造化シーンからサンプリングされた点群を整列し、それ自身の解誤差共分散の正確な境界を提供することができます。D2D法は静的なシーンの仮定に依存しているため、レンジシャドウイング、自己包絡、移動物体、およびフレーム間の記録装置の移動に伴う歪みアーティファクトによるバイアスの影響を受けやすいとされています。Deep Learningを用いたアプローチは、これらの制約を緩和することで、動的なシーンにおいてより高い精度を達成することができますが、DNNは解釈不可能な解を生成するため、安全性の観点から問題があります。本論文では、静的シーンの仮定に違反し、D2Dスキャンマッチング処理にエラーをもたらすボクセルを除外するために、LIDAR点群のダウンサンプリングの手法を提案する。本アプローチでは、解整合性フィルタを用いて、D2D寄与がPointNetベースの登録ネットワークからの局所推定値と一致しないボクセルを特定し、フラグを立てる。

要約(オリジナル)

Distribution-to-distribution (D2D) point cloud registration techniques such as the Normal Distributions Transform (NDT) can align point clouds sampled from unstructured scenes and provide accurate bounds of their own solution error covariance– an important feature for safety-of life navigation tasks. D2D methods rely on the assumption of a static scene and are therefore susceptible to bias from range-shadowing, self-occlusion, moving objects, and distortion artifacts as the recording device moves between frames. Deep Learning-based approaches can achieve higher accuracy in dynamic scenes by relaxing these constraints, however, DNNs produce uninterpratable solutions which can be problematic from a safety perspective. In this paper, we propose a method of down-sampling LIDAR point clouds to exclude voxels that violate the assumption of a static scene and introduce error to the D2D scan matching process. Our approach uses a solution consistency filter, identifying and flagging voxels where D2D contributions disagree with local estimates from a PointNet-based registration network.

arxiv情報

著者 Matthew McDermott,Jason Rife
発行日 2022-11-08 07:08:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, I.4.8 パーマリンク