Reinforcement Learning for Picking Cluttered General Objects with Dense Object Descriptors

要約

タイトル:Reinforcement Learning for Picking Cluttered General Objects with Dense Object Descriptors(密な物体記述子を用いた混雑した一般物体のピッキングのための強化学習)

要約:

– 混雑した一般物体をピッキングすることは、複雑な幾何学的形状や様々な積み重ね構成のため、困難な課題である。
– 先行研究ではポーズ推定をピッキングに利用しているが、混雑した物体でのポーズ推定は困難である。
– 本研究では、Cluttered Objects Descriptors(CODs)という密な混雑した物体の記述子を提案し、事前学習されたCODsネットワークとその中間出力を使用してピッキングポリシーをトレーニングする。
– さらに、強化学習を使用してポリシーをトレーニングし、監督なしでピッキングを学習できるようにする。
– 私たちは実験を行い、CODsが見たことのある物体と未見の物体を一貫して表現できることを示し、ピッキングポリシーが一般的な物体を堅牢にピックできることを示した。
– 結果として、訓練シナリオよりも2倍混雑している実験環境で未知の物体の96.69%をピックすることができるポリシーを得た。

要約(オリジナル)

Picking cluttered general objects is a challenging task due to the complex geometries and various stacking configurations. Many prior works utilize pose estimation for picking, but pose estimation is difficult on cluttered objects. In this paper, we propose Cluttered Objects Descriptors (CODs), a dense cluttered objects descriptor that can represent rich object structures, and use the pre-trained CODs network along with its intermediate outputs to train a picking policy. Additionally, we train the policy with reinforcement learning, which enable the policy to learn picking without supervision. We conduct experiments to demonstrate that our CODs is able to consistently represent seen and unseen cluttered objects, which allowed for the picking policy to robustly pick cluttered general objects. The resulting policy can pick 96.69% of unseen objects in our experimental environment which is twice as cluttered as the training scenarios.

arxiv情報

著者 Hoang-Giang Cao,Weihao Zeng,I-Chen Wu
発行日 2023-04-20 06:24:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.CV, cs.RO パーマリンク