要約
複雑な環境における強化学習アルゴリズムのパフォーマンスにおける現在の成功は、認知科学に対する最近の多くの理論的アプローチに影響を与えています。
芸術環境は、認知科学コミュニティ内で、豊かで自然、多感覚、多文化の環境として研究されています。
この研究では、芸術的なロボット アプリケーションの制御を改善するための強化学習の導入を提案します。
ディープ Q ラーニング ニューラル ネットワーク (DQN) は、ロボット工学における強化学習の実装で最も成功したアルゴリズムの 1 つです。
DQN メソッドは、幅広い環境で複雑なロボット アプリケーションを実行するための複雑な制御ポリシーを生成します。
現在のアートペインティングロボットアプリケーションは、一連の単純な環境に対するフレームワークの適応性を制限する単純な制御法則を使用しています。
この研究では、アートペインティングロボットアプリケーション内での DQN の導入が提案されています。
目標は、複雑な制御ポリシーの導入が、基本的なアート ペイント ロボット アプリケーションのパフォーマンスにどのような影響を与えるかを研究することです。
この研究で期待される主な貢献は、複雑なアート ペインティング ロボット フレームワークに DQN 手法を導入する将来の研究の最初のベースラインとして機能することです。
実験は、DQN が生成したポリシーと人型ロボット TEO を使用して、人間が描いたスケッチを現実世界で実行することで構成されます。
結果は類似性の観点から比較され、参照入力に対する報酬が得られます
要約(オリジナル)
The current success of Reinforcement Learning algorithms for its performance in complex environments has inspired many recent theoretical approaches to cognitive science. Artistic environments are studied within the cognitive science community as rich, natural, multi-sensory, multi-cultural environments. In this work, we propose the introduction of Reinforcement Learning for improving the control of artistic robot applications. Deep Q-learning Neural Networks (DQN) is one of the most successful algorithms for the implementation of Reinforcement Learning in robotics. DQN methods generate complex control policies for the execution of complex robot applications in a wide set of environments. Current art painting robot applications use simple control laws that limits the adaptability of the frameworks to a set of simple environments. In this work, the introduction of DQN within an art painting robot application is proposed. The goal is to study how the introduction of a complex control policy impacts the performance of a basic art painting robot application. The main expected contribution of this work is to serve as a first baseline for future works introducing DQN methods for complex art painting robot frameworks. Experiments consist of real world executions of human drawn sketches using the DQN generated policy and TEO, the humanoid robot. Results are compared in terms of similarity and obtained reward with respect to the reference inputs
arxiv情報
| 著者 | Raul Fernandez-Fernandez,Juan G. Victores,Carlos Balaguer |
| 発行日 | 2024-02-01 15:37:23+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google