Real-time Motion Generation and Data Augmentation for Grasping Moving Objects with Dynamic Speed and Position Changes

要約

ディープラーニングにより、実際のロボットはこれまで実装が困難であった複雑なタスクを実行できるようになりますが、課題は、実際の環境での膨大な量の試行錯誤と動作教示です。
動く物体の操作には、その動的な特性により、物体の位置、移動速度、掴むタイミングなどの幅広い要素を学習する必要があります。
速度やタイミングが異なる移動物体をロボットが低コストで把握できるようにするためのデータ拡張手法を提案する。
具体的には、低速で移動する物体を遠隔操作で把持することをロボットに学習させ、ロボットのセンサーデータを時系列方向にダウンサンプリングしてパディングすることで、速度や把持タイミングが異なる複数のデータを生成します。
複数のセンサーデータを時系列に学習することで、未学習の動作速度や急激な速度変化に対して、掴みのタイミングを調整しながらモーションを生成できます。
我々は実際のロボットを用いて、このデータ拡張手法により物体の位置と速度の関係の学習が容易になり、ロボットが位置と速度が動的に変化する未学習の位置や物体に対してロバストな把握動作を実行できることを示しました。

要約(オリジナル)

While deep learning enables real robots to perform complex tasks had been difficult to implement in the past, the challenge is the enormous amount of trial-and-error and motion teaching in a real environment. The manipulation of moving objects, due to their dynamic properties, requires learning a wide range of factors such as the object’s position, movement speed, and grasping timing. We propose a data augmentation method for enabling a robot to grasp moving objects with different speeds and grasping timings at low cost. Specifically, the robot is taught to grasp an object moving at low speed using teleoperation, and multiple data with different speeds and grasping timings are generated by down-sampling and padding the robot sensor data in the time-series direction. By learning multiple sensor data in a time series, the robot can generate motions while adjusting the grasping timing for unlearned movement speeds and sudden speed changes. We have shown using a real robot that this data augmentation method facilitates learning the relationship between object position and velocity and enables the robot to perform robust grasping motions for unlearned positions and objects with dynamically changing positions and velocities.

arxiv情報

著者 Kenjiro Yamamoto,Hiroshi Ito,Hideyuki Ichiwara,Hiroki Mori,Tetsuya Ogata
発行日 2023-09-22 00:19:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク