Category-Independent Articulated Object Tracking with Factor Graphs

要約

人間中心の環境に配備されたロボットは、ドア、食器洗い機、キャビネットなど、さまざまな多関節オブジェクトを操作する必要がある場合があります。
多関節オブジェクトには、多くの場合、カテゴリ事前確率と矛盾する予期しない関節メカニズムが付属しています。たとえば、引き出しは、スライドして開くのではなく、ヒンジ ジョイントを中心に回転する場合があります。
RGB-D 画像のシーケンスから未知のオブジェクトの関節モデルを予測するためのカテゴリに依存しないフレームワークを提案します。
予測は 2 段階のプロセスで実行されます。まず、視覚認識モジュールが生の画像からオブジェクト パーツのポーズを追跡し、次に、ファクター グラフがこれらのポーズを取得し、パーツ間の現在の構成を含む関節モデルを 6D ツイストとして推測します。
.
また、予測されたねじれが与えられた場合に、対応するロボット コントローラーが多関節オブジェクトをどれだけうまく操作できるかという観点から、予測された関節のねじれを評価するための操作指向のメトリックも提案します。
視覚認識とファクター グラフ モジュールがシミュレートされたデータのベースラインよりも優れていることを実証し、現実世界のデータに対するファクター グラフの適用可能性を示します。

要約(オリジナル)

Robots deployed in human-centric environments may need to manipulate a diverse range of articulated objects, such as doors, dishwashers, and cabinets. Articulated objects often come with unexpected articulation mechanisms that are inconsistent with categorical priors: for example, a drawer might rotate about a hinge joint instead of sliding open. We propose a category-independent framework for predicting the articulation models of unknown objects from sequences of RGB-D images. The prediction is performed by a two-step process: first, a visual perception module tracks object part poses from raw images, and second, a factor graph takes these poses and infers the articulation model including the current configuration between the parts as a 6D twist. We also propose a manipulation-oriented metric to evaluate predicted joint twists in terms of how well a compliant robot controller would be able to manipulate the articulated object given the predicted twist. We demonstrate that our visual perception and factor graph modules outperform baselines on simulated data and show the applicability of our factor graph on real world data.

arxiv情報

著者 Nick Heppert,Toki Migimatsu,Brent Yi,Claire Chen,Jeannette Bohg
発行日 2023-01-18 16:14:07+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク