Multi-Model 3D Registration: Finding Multiple Moving Objects in Cluttered Point Clouds

要約

マルチモデル 3D レジストレーションと呼ばれる、3D レジストレーション問題のバリエーションを調査します。
マルチモデル登録問題では、異なる姿勢で一連のオブジェクトを描写する 2 つの点群 (おそらく背景に属する点も含まれます) が与えられ、すべてのオブジェクトが 2 つの点群間でどのように移動するかを同時に再構築したいと考えています。
このセットアップは、単一のポーズ、たとえば静的なシーンを撮影するセンサーの動きを再構築したい場合に、標準的な 3D レジストレーションを一般化します。
さらに、関連するロボット工学アプリケーションに数学的に根拠のある定式化を提供します。たとえば、ロボットに搭載された深度センサーが動的なシーンを認識し、ロボット自体の動きを (シーンの静的な部分から) 推定すると同時に、ロボットの動きを回復するという目標を持っています。
すべての動的オブジェクト。
2 つの点群間に推定上の一致がある対応ベースのセットアップを想定し、これらの対応が外れ値に悩まされる実際のケースを検討します。
次に、期待値最大化 (EM) に基づく単純なアプローチを提案し、EM アプローチがグラウンド トゥルースに収束する理論的条件を確立します。
私たちは、テーブル上のシーンから自動運転シナリオに至るまで、シミュレートされた実際のデータセットでこのアプローチを評価し、最先端のシーン フロー手法と組み合わせて密な対応を確立した場合のその有効性を実証します。

要約(オリジナル)

We investigate a variation of the 3D registration problem, named multi-model 3D registration. In the multi-model registration problem, we are given two point clouds picturing a set of objects at different poses (and possibly including points belonging to the background) and we want to simultaneously reconstruct how all objects moved between the two point clouds. This setup generalizes standard 3D registration where one wants to reconstruct a single pose, e.g., the motion of the sensor picturing a static scene. Moreover, it provides a mathematically grounded formulation for relevant robotics applications, e.g., where a depth sensor onboard a robot perceives a dynamic scene and has the goal of estimating its own motion (from the static portion of the scene) while simultaneously recovering the motion of all dynamic objects. We assume a correspondence-based setup where we have putative matches between the two point clouds and consider the practical case where these correspondences are plagued with outliers. We then propose a simple approach based on Expectation-Maximization (EM) and establish theoretical conditions under which the EM approach converges to the ground truth. We evaluate the approach in simulated and real datasets ranging from table-top scenes to self-driving scenarios and demonstrate its effectiveness when combined with state-of-the-art scene flow methods to establish dense correspondences.

arxiv情報

著者 David Jin,Sushrut Karmalkar,Harry Zhang,Luca Carlone
発行日 2024-02-16 18:01:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク