CLIP-Motion: Learning Reward Functions for Robotic Actions Using Consecutive Observations

要約

このペーパーでは、クリップベースのモデルの力を活用することにより、ロボットモーションの報酬機能を学習するための新しい方法を紹介します。
従来の報酬機能デザインは、多くの場合、手動の機能エンジニアリングにかかっています。
私たちのアプローチは、状態機能と画像入力の両方を効果的に処理するClipの機能を活用することにより、この課題を回避します。
連続した観察のペアを考えると、私たちのモデルは、それらの間で実行された動きを特定することに優れています。
グリッパーを指定されたターゲットに向け、キューブの位置を調整するなど、さまざまなロボットアクティビティにまたがる結果を紹介します。
実験的評価を通じて、私たちは、動きを正確に推測するための方法の習熟度と、ロボット工学の領域での強化学習トレーニングを強化するという約束を強調します。

要約(オリジナル)

This paper presents a novel method for learning reward functions for robotic motions by harnessing the power of a CLIP-based model. Traditional reward function design often hinges on manual feature engineering, which can struggle to generalize across an array of tasks. Our approach circumvents this challenge by capitalizing on CLIP’s capability to process both state features and image inputs effectively. Given a pair of consecutive observations, our model excels in identifying the motion executed between them. We showcase results spanning various robotic activities, such as directing a gripper to a designated target and adjusting the position of a cube. Through experimental evaluations, we underline the proficiency of our method in precisely deducing motion and its promise to enhance reinforcement learning training in the realm of robotics.

arxiv情報

著者 Xuzhe Dang,Stefan Edelkamp
発行日 2025-01-29 14:28:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.RO パーマリンク