要約
この論文では、3D 点群における一般化された姿勢推定のための新しいネットワークである GP3D を紹介します。
この方法は、キーポイント インデックスを入力としてシーン ポイント クラウドとオブジェクト ポイント クラウドの両方を使用して、新しいオブジェクトに一般化します。
ネットワークは、オブジェクト キーポイントをシーン ポイントに一致させるようにトレーニングされます。
新しいオブジェクトのポーズ推定に対処するために、ポーズ推定をトレーニングするための新しいアプローチも提示します。
典型的な解決策は、任意のシナリオで特定のオブジェクトの姿勢推定用にトレーニングされた単一のモデルです。
これにはいくつかの欠点があります。各オブジェクトのモデルのトレーニングは時間とエネルギーを消費し、シナリオ情報を除外することでタスクがより困難になります。
この論文では、反対の解決策を提示します。
再トレーニングを必要としない新規オブジェクトのシナリオ固有のポーズ推定方法。
ネットワークは 1500 個のオブジェクトでトレーニングされており、一般化されたソリューションを学習できます。
ネットワークが新しいオブジェクトを正しく予測できることを示し、ネットワークがトレーニング済みクラスの外で実行できることを示します。
実証された方法は、多くの現実のシナリオにとって価値のあるソリューションであると考えています。
コードとトレーニング済みネットワークは、公開後に利用可能になります。
要約(オリジナル)
In this paper, we present GP3D, a novel network for generalized pose estimation in 3D point clouds. The method generalizes to new objects by using both the scene point cloud and the object point cloud with keypoint indexes as input. The network is trained to match the object keypoints to scene points. To address the pose estimation of novel objects we also present a new approach for training pose estimation. The typical solution is a single model trained for pose estimation of a specific object in any scenario. This has several drawbacks: training a model for each object is time-consuming, energy consuming, and by excluding the scenario information the task becomes more difficult. In this paper, we present the opposite solution; a scenario-specific pose estimation method for novel objects that do not require retraining. The network is trained on 1500 objects and is able to learn a generalized solution. We demonstrate that the network is able to correctly predict novel objects, and demonstrate the ability of the network to perform outside of the trained class. We believe that the demonstrated method is a valuable solution for many real-world scenarios. Code and trained network will be made available after publication.
arxiv情報
著者 | Frederik Hagelskjær |
発行日 | 2023-03-28 16:11:31+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google