CAPT: Category-level Articulation Estimation from a Single Point Cloud Using Transformer

要約

関節パラメータを推定する機能は、ロボット工学やコンピューター ビジョンのさまざまなアプリケーションに不可欠です。
この論文では、CAPT (Transformer を使用した点群からのカテゴリレベルのアーティキュレーション推定) を提案します。
CAPT は、単一点群から関節パラメータと多関節オブジェクトの状態推定を行うために、エンドツーエンドのトランスフォーマ ベースのアーキテクチャを使用します。
提案された CAPT 手法は、さまざまな関節オブジェクトの関節パラメータと状態を高精度かつ堅牢に正確に推定します。
この論文では、関節オブジェクトの動的特徴を強調することで関節推定パフォーマンスを向上させるモーションロスアプローチも紹介しています。
さらに、この論文では、フレームワークに粗いパラメータから細かいパラメータまでの推定を提供する二重投票戦略を紹介しています。
いくつかのカテゴリのデータセットに関する実験結果は、私たちの方法が調音推定の既存の代替方法よりも優れていることを示しています。
私たちの研究は、多関節オブジェクトの解析に Transformer ベースのアーキテクチャを適用するための有望なソリューションを提供します。

要約(オリジナル)

The ability to estimate joint parameters is essential for various applications in robotics and computer vision. In this paper, we propose CAPT: category-level articulation estimation from a point cloud using Transformer. CAPT uses an end-to-end transformer-based architecture for joint parameter and state estimation of articulated objects from a single point cloud. The proposed CAPT methods accurately estimate joint parameters and states for various articulated objects with high precision and robustness. The paper also introduces a motion loss approach, which improves articulation estimation performance by emphasizing the dynamic features of articulated objects. Additionally, the paper presents a double voting strategy to provide the framework with coarse-to-fine parameter estimation. Experimental results on several category datasets demonstrate that our methods outperform existing alternatives for articulation estimation. Our research provides a promising solution for applying Transformer-based architectures in articulated object analysis.

arxiv情報

著者 Lian Fu,Ryoichi Ishikawa,Yoshihiro Sato,Takeshi Oishi
発行日 2024-02-27 09:53:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク