要約
シミュレーションにより、ロボットは、予想されるアクションを物理的に実行することなく、その結果を計画し、推定することができます。
当社では、自己教師あり学習フレームワークを導入し、短い生のビデオ データのみを使用してロボットの形態、運動学、モーター制御のモデル化と予測を可能にし、広範な現実世界のデータ収集や運動学の事前学習の必要性を排除します。
人間が鏡に映った自分を見るのと同じように、自分自身の動きを観察することで、ロボットは自分自身をシミュレートし、さまざまなタスクの空間動作を予測する能力を学びます。
私たちの結果は、この自己学習シミュレーションによって正確な動作計画が可能になるだけでなく、ロボットが異常を検出して損傷から回復できることを示しています。
要約(オリジナル)
Simulation enables robots to plan and estimate the outcomes of prospective actions without the need to physically execute them. We introduce a self-supervised learning framework to enable robots model and predict their morphology, kinematics and motor control using only brief raw video data, eliminating the need for extensive real-world data collection and kinematic priors. By observing their own movements, akin to humans watching their reflection in a mirror, robots learn an ability to simulate themselves and predict their spatial motion for various tasks. Our results demonstrate that this self-learned simulation not only enables accurate motion planning but also allows the robot to detect abnormalities and recover from damage.
arxiv情報
著者 | Yuhang Hu,Jiong Lin,Hod Lipson |
発行日 | 2023-11-20 20:03:34+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google