要約
本論文では、ロボット工学における効率的なタスク実行のための、知識共有型拡張運動感覚教授法の完全かつ効率的な実装を紹介する。我々の拡張運動感覚教授法は、言語、ジェスチャー、視線、物理的ガイダンスを含む直感的な人間のフィードバックを統合し、制御タイプ、注意方向、入出力タイプ、行動状態変化トリガー等を含むタスク情報の多層抽出を容易にし、タスク実行中のロボットの適応性と自律性を強化する。我々は、技術的経験の乏しいユーザが直感的な方法でロボットを教えられるように、効率的なPbD(Programming by Demonstration)フレームワークを提案する。提案するフレームワークは、このようなユーザが高レベルのコマンドを使用してカスタマイズされたタスクを教えるためのインタフェースを提供し、よりスムーズなティーチング体験とタスク実行を達成することを目標とする。これは、水を注ぐというサンプルタスクで実証される。
要約(オリジナル)
In this paper, we present a complete and efficient implementation of a knowledge-sharing augmented kinesthetic teaching approach for efficient task execution in robotics. Our augmented kinesthetic teaching method integrates intuitive human feedback, including verbal, gesture, gaze, and physical guidance, to facilitate the extraction of multiple layers of task information including control type, attention direction, input and output type, action state change trigger, etc., enhancing the adaptability and autonomy of robots during task execution. We propose an efficient Programming by Demonstration (PbD) framework for users with limited technical experience to teach the robot in an intuitive manner. The proposed framework provides an interface for such users to teach customized tasks using high-level commands, with the goal of achieving a smoother teaching experience and task execution. This is demonstrated with the sample task of pouring water.
arxiv情報
著者 | Cheng Tang,Jiaming Zhong,Yue Hu |
発行日 | 2023-12-01 00:30:31+00:00 |
arxivサイト | arxiv_id(pdf) |