要約
未解決の問題の 1 つは、モデルベースの逆強化学習 (IRL) を、予測不可能なダイナミクスを伴う実際のロボット操作タスクにどのように拡張するかです。
視覚と固有受容の両方の例から学習し、高次元の状態空間に拡張するアルゴリズムを作成し、強力なダイナミクス モデルを習得する能力が主な障害となります。
この研究では、純粋に人間の視覚的なデモンストレーションからコスト関数を学習する、勾配ベースの逆強化学習フレームワークを提供します。
表示された挙動と軌道は、TD ビジュアル モデル予測制御 (MPC) と学習されたコスト関数を使用して最適化されます。
ハードウェア上で基本的なオブジェクト操作タスクを使用してシステムをテストします。
要約(オリジナル)
One unresolved issue is how to scale model-based inverse reinforcement learning (IRL) to actual robotic manipulation tasks with unpredictable dynamics. The ability to learn from both visual and proprioceptive examples, creating algorithms that scale to high-dimensional state-spaces, and mastering strong dynamics models are the main obstacles. In this work, we provide a gradient-based inverse reinforcement learning framework that learns cost functions purely from visual human demonstrations. The shown behavior and the trajectory is then optimized using TD visual model predictive control(MPC) and the learned cost functions. We test our system using fundamental object manipulation tasks on hardware.
arxiv情報
著者 | Md Shoyib Hassan,Sabir Md Sanaullah |
発行日 | 2024-07-17 18:12:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google