From Scratch to Sketch: Deep Decoupled Hierarchical Reinforcement Learning for Robotic Sketching Agent

要約

本論文では、ストロークベースの描画と運動制御を同時に学習可能なロボットスケッチエージェントのための自動学習フレームワークを提案する。ロボットスケッチ問題は、深い階層的強化学習として定式化される。ストロークベースのレンダリングと運動制御の2つの方針は、描画のためのサブタスクを達成するために独立して学習され、実世界の描画のために協力するときに階層を形成する。提案手法は、手書きで作成した特徴量、描画シーケンスや軌跡、逆運動学などを用いず、ゼロからロボット型スケッチエージェントを学習させるものである。我々は、2Fグリッパを持つ6DoFのロボットアームを用いて、落書きスケッチの実験を行った。実験の結果、2つのポリシーがうまくサブタスクを学習し、協調してターゲット画像をスケッチすることが確認できた。また、描画ツールや描画面を変化させることで、ロバスト性と柔軟性を検討した。

要約(オリジナル)

We present an automated learning framework for a robotic sketching agent that is capable of learning stroke-based rendering and motor control simultaneously. We formulate the robotic sketching problem as a deep decoupled hierarchical reinforcement learning; two policies for stroke-based rendering and motor control are learned independently to achieve sub-tasks for drawing, and form a hierarchy when cooperating for real-world drawing. Without hand-crafted features, drawing sequences or trajectories, and inverse kinematics, the proposed method trains the robotic sketching agent from scratch. We performed experiments with a 6-DoF robot arm with 2F gripper to sketch doodles. Our experimental results show that the two policies successfully learned the sub-tasks and collaborated to sketch the target images. Also, the robustness and flexibility were examined by varying drawing tools and surfaces.

arxiv情報

著者 Ganghun Lee,Minji Kim,Minsu Lee,Byoung-Tak Zhang
発行日 2022-08-09 15:18:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CV, cs.RO パーマリンク