Visual IRL for Human-Like Robotic Manipulation

要約

協働ロボット (コボット) が操作タスクを学習し、人間のような方法で実行するための新しい方法を紹介します。
私たちの手法は、ロボットが人間の行動を観察することによってタスクの実行方法を学習する観察から学習する (LfO) パラダイムに該当し、ゼロからプログラミングする場合と比較して産業環境への迅速な統合を促進します。
観察されたヒューマン タスクのパフォーマンスの各フレームの RGB-D キーポイントを状態特徴として直接使用し、逆強化学習 (IRL) に入力する Visual IRL を導入します。
キーポイントを報酬値にマッピングする逆学習報酬関数は、人間の運動学を協働ロボットのアームにマッピングする新しい神経記号力学モデルを使用して、人間から協働ロボットに転送されます。
このモデルは、ロボット操作における人間の動きの自然なダイナミクスを維持することを目的として、関節調整を最小限に抑えながら同様のエンドエフェクターの位置決めを可能にします。
エンドエフェクターの配置のみに焦点を当てた以前の技術とは対照的に、私たちの方法は人間の腕の複数の関節角度を対応する協働ロボットの関節にマッピングします。
さらに、逆運動学モデルを使用して関節角度を最小限に調整し、エンドエフェクターの正確な位置決めを実現します。
2 つの異なる現実的な操作タスクでこのアプローチのパフォーマンスを評価します。
最初の作業は、玉ねぎを収穫し、検査し、傷がないかどうかに基づいて配置する青果処理です。
2 番目のタスクは液体の注入で、ロボットがボトルを持ち上げ、中身を指定された容器に注ぎ、空のボトルを処分します。
私たちの結果は、人間のようなロボット操作の進歩を実証し、製造用途における人間とロボットの互換性の向上につながります。

要約(オリジナル)

We present a novel method for collaborative robots (cobots) to learn manipulation tasks and perform them in a human-like manner. Our method falls under the learn-from-observation (LfO) paradigm, where robots learn to perform tasks by observing human actions, which facilitates quicker integration into industrial settings compared to programming from scratch. We introduce Visual IRL that uses the RGB-D keypoints in each frame of the observed human task performance directly as state features, which are input to inverse reinforcement learning (IRL). The inversely learned reward function, which maps keypoints to reward values, is transferred from the human to the cobot using a novel neuro-symbolic dynamics model, which maps human kinematics to the cobot arm. This model allows similar end-effector positioning while minimizing joint adjustments, aiming to preserve the natural dynamics of human motion in robotic manipulation. In contrast with previous techniques that focus on end-effector placement only, our method maps multiple joint angles of the human arm to the corresponding cobot joints. Moreover, it uses an inverse kinematics model to then minimally adjust the joint angles, for accurate end-effector positioning. We evaluate the performance of this approach on two different realistic manipulation tasks. The first task is produce processing, which involves picking, inspecting, and placing onions based on whether they are blemished. The second task is liquid pouring, where the robot picks up bottles, pours the contents into designated containers, and disposes of the empty bottles. Our results demonstrate advances in human-like robotic manipulation, leading to more human-robot compatibility in manufacturing applications.

arxiv情報

著者 Ehsan Asali,Prashant Doshi
発行日 2024-12-16 01:23:13+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CV, cs.RO パーマリンク