Robotic Learning the Sequence of Packing Irregular Objects from Human Demonstrations

要約

私たちは、食料品などの不規則な物体をロボットで箱詰めするという課題に取り組んでいます。
これらのオブジェクトの多様な物理的属性と、それらの配置と操作を制御する複雑な制約を考慮すると、事前にプログラムされた戦略を採用することは不可能になります。
私たちのアプローチは、暗黙のタスク知識と戦略を抽出するために、専門家のデモンストレーションから直接学習し、オブジェクトの安全な位置決め、空間の効率的な使用、および人間とロボットの信頼関係を強化する人間のような行動の生成を保証することです。
私たちは人間のデモンストレーションに頼って、特定のアイテムのセットに対するオブジェクトのパッキングシーケンスを予測するためのマルコフ連鎖を学習し、それを人間のパフォーマンスと比較します。
私たちの実験結果は、このモデルが、人間が生成した配列よりも人間が人間に似ていると分類する配列予測をより頻繁に生成することで、人間のパフォーマンスを上回っていることを示しています。
人間によるデモンストレーションは、当社が提案する VR プラットフォーム BoxED を使用して収集されました。BoxED は、ロボットの教育を目的とした、現実世界のオブジェクトとシナリオをシミュレートするためのボックス パッケージング環境で、迅速かつ合理的なデータ収集を実現します。
合計 263 個の箱にスーパーマーケットのようなオブジェクトを詰めた 43 人の参加者からデータを収集し、4,644 個のオブジェクト操作が得られました。
当社の VR プラットフォームは、新しいシナリオやオブジェクトに簡単に適応でき、データセットとともに https://github.com/andrejfsantos4/BoxED で公開されています。

要約(オリジナル)

We tackle the challenge of robotic bin packing with irregular objects, such as groceries. Given the diverse physical attributes of these objects and the complex constraints governing their placement and manipulation, employing preprogrammed strategies becomes unfeasible. Our approach is to learn directly from expert demonstrations in order to extract implicit task knowledge and strategies to ensure safe object positioning, efficient use of space, and the generation of human-like behaviors that enhance human-robot trust. We rely on human demonstrations to learn a Markov chain for predicting the object packing sequence for a given set of items and then compare it with human performance. Our experimental results show that the model outperforms human performance by generating sequence predictions that humans classify as human-like more frequently than human-generated sequences. The human demonstrations were collected using our proposed VR platform, BoxED, which is a box packaging environment for simulating real-world objects and scenarios for fast and streamlined data collection with the purpose of teaching robots. We collected data from 43 participants packing a total of 263 boxes with supermarket-like objects, yielding 4644 object manipulations. Our VR platform can be easily adapted to new scenarios and objects, and is publicly available, alongside our dataset, at https://github.com/andrejfsantos4/BoxED.

arxiv情報

著者 André Santos,Nuno Ferreira Duarte,Atabak Dehban,José Santos-Victor
発行日 2023-11-08 18:11:05+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク