Versatile Demonstration Interface: Toward More Flexible Robot Demonstration Collection

要約

デモンストレーションから学ぶための以前の方法は、人間がテレオ操作、運動感覚的教育、自然なデモなど、ロボットに動きを教えるためのいくつかのアプローチを活用しています。
ただし、以前の作業では、複数のデモンストレーションタイプを可能にするより一般的なインターフェイスを調査していません。
人間のデモ参加者とタスクの特性のさまざまな好みを考えると、複数のデモンストレーションタイプを可能にする柔軟なツールは、より広範なロボットスキルトレーニングに重要になる可能性があります。
この作業では、3つの一般的なタイプのデモンストレーションのコレクションを簡素化する共同ロボットの添付ファイルである汎用性の高いデモンストレーションインターフェイス(VDI)を提案します。
産業環境での柔軟な展開のために設計されたこのツールは、環境の追加の計装を必要としません。
私たちのプロトタイプインターフェイスは、視力、力のセンシング、状態追跡の組み合わせ(例えば、ロボットの固有受容またはアプリタグ追跡)を介して人間のデモンストレーションをキャプチャします。
製造業の専門家と一緒に地元の製造イノベーションセンターにプロトタイプVDIを展開したユーザー調査を通じて、代表的な産業用タスクでVDIを実証しました。
私たちの研究からの相互作用は、VDIのさまざまなデモンストレーションタイプの実用的な価値を強調し、VDIのさまざまな産業ユースケースを公開し、将来のツール設計に関する洞察を提供します。

要約(オリジナル)

Previous methods for Learning from Demonstration leverage several approaches for a human to teach motions to a robot, including teleoperation, kinesthetic teaching, and natural demonstrations. However, little previous work has explored more general interfaces that allow for multiple demonstration types. Given the varied preferences of human demonstrators and task characteristics, a flexible tool that enables multiple demonstration types could be crucial for broader robot skill training. In this work, we propose Versatile Demonstration Interface (VDI), an attachment for collaborative robots that simplifies the collection of three common types of demonstrations. Designed for flexible deployment in industrial settings, our tool requires no additional instrumentation of the environment. Our prototype interface captures human demonstrations through a combination of vision, force sensing, and state tracking (e.g., through the robot proprioception or AprilTag tracking). Through a user study where we deployed our prototype VDI at a local manufacturing innovation center with manufacturing experts, we demonstrated VDI in representative industrial tasks. Interactions from our study highlight the practical value of VDI’s varied demonstration types, expose a range of industrial use cases for VDI, and provide insights for future tool design.

arxiv情報

著者 Michael Hagenow,Dimosthenis Kontogiorgos,Yanwei Wang,Julie Shah
発行日 2025-03-13 15:59:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク