MaskPlanner: Learning-Based Object-Centric Motion Generation from 3D Point Clouds

要約

オブジェクト中心のモーション生成(OCMG)は、ロボットスプレー塗装や溶接など、さまざまな産業用途$ \ Unicode {x2014} $で重要な役割を果たします。
ただし、既存のソリューションは、特別なヒューリスティック、高価な最適化ルーチン、または現実世界のシナリオへの適応性を制限する制限的なジオメトリの仮定に依存しています。
この作業では、3DポイントクラウドからOCMGに直接取り組む新しい完全なデータ駆動型のフレームワークを紹介し、自由形式の表面全体にエキスパートパスパターンを一般化することを学びます。
特定のオブジェクトのローカルパスセグメントを予測する深い学習方法であるMaskPlannerを提案し、同時に「パスマスク」を推測して、これらのセグメントを異なるパスにグループ化します。
この設計により、ネットワークは、単一のフォワードパスでローカルの幾何学的パターンとグローバルタスク要件の両方をキャプチャするように誘導します。
現実的なロボットスプレーペインティングシナリオの広範な実験は、目に見えないオブジェクトの近いカバレッジ(99%を超える)を達成することを示していますが、タスクに依存しないままであり、塗料の堆積を明示的に最適化していません。
さらに、6-DOF専門塗装ロボットに関する現実世界の検証は、生成された軌道が直接実行可能であり、専門家レベルの塗装品質を生み出していることを示しています。
私たちの調査結果は、OCMGがエンジニアリングを縮小し、いくつかの産業用ユースケースにシームレスに適応するための提案された学習方法の可能性を決定的に強調しています。

要約(オリジナル)

Object-Centric Motion Generation (OCMG) plays a key role in a variety of industrial applications$\unicode{x2014}$such as robotic spray painting and welding$\unicode{x2014}$requiring efficient, scalable, and generalizable algorithms to plan multiple long-horizon trajectories over free-form 3D objects. However, existing solutions rely on specialized heuristics, expensive optimization routines, or restrictive geometry assumptions that limit their adaptability to real-world scenarios. In this work, we introduce a novel, fully data-driven framework that tackles OCMG directly from 3D point clouds, learning to generalize expert path patterns across free-form surfaces. We propose MaskPlanner, a deep learning method that predicts local path segments for a given object while simultaneously inferring ‘path masks’ to group these segments into distinct paths. This design induces the network to capture both local geometric patterns and global task requirements in a single forward pass. Extensive experimentation on a realistic robotic spray painting scenario shows that our approach attains near-complete coverage (above 99%) for unseen objects, while it remains task-agnostic and does not explicitly optimize for paint deposition. Moreover, our real-world validation on a 6-DoF specialized painting robot demonstrates that the generated trajectories are directly executable and yield expert-level painting quality. Our findings crucially highlight the potential of the proposed learning method for OCMG to reduce engineering overhead and seamlessly adapt to several industrial use cases.

arxiv情報

著者 Gabriele Tiboni,Raffaello Camoriano,Tatiana Tommasi
発行日 2025-02-26 01:39:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CV, cs.RO パーマリンク