Local Region-to-Region Mapping-based Approach to Classify Articulated Objects

要約

実世界で活動する自律型ロボットは、剛体や多関節の様々なオブジェクトに遭遇します。このような物体の特性に関する知識を持つことは、適切な操作戦略の設計に役立つだけでなく、多くのロボットや視覚アプリケーションにおいて信頼性の高い追跡や姿勢推定技術の開発にも役立つ。このような背景から、本論文では、オブジェクトを多関節か剛体かのいずれかに分類するためのレジストレーションに基づく局所領域間マッピングのアプローチを紹介する。提案手法は、対象物体の点群を用いて、観察された物体の一連の動きに対して、点群間のユニークな局所変換を推定することにより、分類を行うものである。提案手法の大きな利点は、制約のないアプローチであるため、あらゆる多関節物体を分類でき、特定の多関節タイプに限定されないことである。さらに、学習要素を持たないモデルフリーアプローチであるため、オブジェクトモデルやラベル付けされたデータを必要とせずに、オブジェクトが関節運動しているかどうかを分類することができる。我々は、多関節オブジェクトと剛体オブジェクトを組み合わせた2つの公開ベンチマークデータセットにおいて、提案手法の性能を分析する。提案手法は、多関節オブジェクトと剛体オブジェクトを精度良く分類できることが確認された。

要約(オリジナル)

Autonomous robots operating in real-world environments encounter a variety of objects that can be both rigid and articulated in nature. Having knowledge of these specific object properties not only helps in designing appropriate manipulation strategies but also aids in developing reliable tracking and pose estimation techniques for many robotic and vision applications. In this context, this paper presents a registration-based local region-to-region mapping approach to classify an object as either articulated or rigid. Using the point clouds of the intended object, the proposed method performs classification by estimating unique local transformations between point clouds over the observed sequence of movements of the object. The significant advantage of the proposed method is that it is a constraint-free approach that can classify any articulated object and is not limited to a specific type of articulation. Additionally, it is a model-free approach with no learning components, which means it can classify whether an object is articulated without requiring any object models or labelled data. We analyze the performance of the proposed method on two publicly available benchmark datasets with a combination of articulated and rigid objects. It is observed that the proposed method can classify articulated and rigid objects with good accuracy.

arxiv情報

著者 Ayush Aggarwal,Rustam Stolkin,Naresh Marturi
発行日 2023-05-10 18:08:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク