Teaching contact-rich tasks from visual demonstrations by constraint extraction

要約

接触が多い操作には、タスクの動きに対する運動学的制約が含まれます。通常、タスク中のこれらの制約間の個別の遷移があります。
ロボットがこれらの接触制約を検出して推論できるようにすることで、堅牢で動的な操作をサポートできますが、これらの接触モデルを効率的に学習するにはどうすればよいでしょうか?
純粋に視覚的な観察は魅力的なデータ ソースであり、変更されていないオブジェクトを使用した受動的なタスクのデモンストレーションを可能にします。
デモンストレーションからの視覚のみの学習に対する既存のアプローチは、ピックアンドプレース アプリケーションと平面タスクで効果的です。
それにもかかわらず、精度/オクルージョンと観測されていないタスクのダイナミクスは、接触の多い操作での堅牢性を制限する可能性があります。
接触が多いロボット タスクに視覚的なデモンストレーションを使用するために、ホロノミックな運動学的制約間の遷移を伴う姿勢軌跡のデモンストレーションを検討します。最初に軌跡を個別の接触モードにクラスタリングし、次に各モードごとに運動学的制約を適合させます。
次に、フィット制約を使用して、(i) 力/トルク測定値を使用してオンラインで接触を検出し、(ii) アクティブな制約に関してロボット ポリシーを計画します。
ケーブリングとレーキのタスクに関する実際の実験でアプローチを実証し、アプローチが接触遷移を通じて堅牢な操作を提供することを示します。

要約(オリジナル)

Contact-rich manipulation involves kinematic constraints on the task motion, typically with discrete transitions between these constraints during the task. Allowing the robot to detect and reason about these contact constraints can support robust and dynamic manipulation, but how can these contact models be efficiently learned? Purely visual observations are an attractive data source, allowing passive task demonstrations with unmodified objects. Existing approaches for vision-only learning from demonstration are effective in pick-and-place applications and planar tasks. Nevertheless, accuracy/occlusions and unobserved task dynamics can limit their robustness in contact-rich manipulation. To use visual demonstrations for contact-rich robotic tasks, we consider the demonstration of pose trajectories with transitions between holonomic kinematic constraints, first clustering the trajectories into discrete contact modes, then fitting kinematic constraints per each mode. The fit constraints are then used to (i) detect contact online with force/torque measurements and (ii) plan the robot policy with respect to the active constraint. We demonstrate the approach with real experiments, on cabling and rake tasks, showing the approach gives robust manipulation through contact transitions.

arxiv情報

著者 Christian Hegeler,Filippo Rozzi,Loris Roveda,Kevin Haninger
発行日 2023-03-30 15:53:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク