Multimodal and Force-Matched Imitation Learning with a See-Through Visuotactile Sensor

要約

接触の多いタスクは、ロボット操作にとって引き続きさまざまな課題をもたらします。
この研究では、模倣学習 (IL) のフレームワーク内でマルチモーダル視覚触覚センサーを活用し、エンドエフェクターとオブジェクトの間の相対運動 (スリップ/スライド) を伴う接触の多いタスクを実行します。
IL を改善するための補完的な方法として、触力のマッチングと学習されたモード切り替えという 2 つのアルゴリズムの貢献を紹介します。
触力のマッチングは、デモンストレーション中におおよその力を読み取り、記録された力を再現する適応したロボットの軌道を生成することで、運動感覚の教育を強化します。
学習モード切り替えでは、IL を使用して視覚センサー モードと触覚センサー モードを学習モーション ポリシーと結合し、到達から接触への移行を簡素化します。
私たちは、提案した改善策とマルチモーダル視覚触覚センシングの有用性を研究するために、さまざまな観察と方法構成を使用して 4 つのドアを開けるタスクでロボット操作実験を実行します。
私たちの結果は、力の一致を含めることで政策の平均成功率が 62.5%、視覚触覚モードの切り替えが 30.3%、政策入力としての視覚触覚データが 42.5% 向上することを示しており、IL におけるシースルー触覚センシングの価値が強調されています。
データ収集により強制一致が可能になり、ポリシー実行により正確なタスクのフィードバックが可能になります。

要約(オリジナル)

Contact-rich tasks continue to present a variety of challenges for robotic manipulation. In this work, we leverage a multimodal visuotactile sensor within the framework of imitation learning (IL) to perform contact rich tasks that involve relative motion (slipping/sliding) between the end-effector and object. We introduce two algorithmic contributions, tactile force matching and learned mode switching, as complimentary methods for improving IL. Tactile force matching enhances kinesthetic teaching by reading approximate forces during the demonstration and generating an adapted robot trajectory that recreates the recorded forces. Learned mode switching uses IL to couple visual and tactile sensor modes with the learned motion policy, simplifying the transition from reaching to contacting. We perform robotic manipulation experiments on four door opening tasks with a variety of observation and method configurations to study the utility of our proposed improvements and multimodal visuotactile sensing. Our results show that the inclusion of force matching raises average policy success rates by 62.5%, visuotactile mode switching by 30.3%, and visuotactile data as a policy input by 42.5%, emphasizing the value of see-through tactile sensing for IL, both for data collection to allow force matching, and for policy execution to allow accurate task feedback.

arxiv情報

著者 Trevor Ablett,Oliver Limoyo,Adam Sigal,Affan Jilani,Jonathan Kelly,Kaleem Siddiqi,Francois Hogan,Gregory Dudek
発行日 2024-06-26 17:40:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG, cs.RO パーマリンク