Advancing Behavior Generation in Mobile Robotics through High-Fidelity Procedural Simulations

要約

この論文では、ロボット ナビゲーション研究用に Unity3D エンジンとロボット オペレーティング システムを統合したシミュレータである Yamaha を紹介し、深層強化学習 (Deep-RL) と自然言語処理 (NLP) の両方の開発を促進することを目的としています。
手続き型環境生成、RGB ビジョン、動的な障害物ナビゲーションなどの機能を備えたシングルおよびマルチエージェント構成をサポートします。
単一および複数のエージェント環境を構築できる機能と、テキストによる説明を通じてエージェントの動作を生成する機能は、yamaS に特有のものです。
シミュレータの忠実度は、現実世界のやまびこビーゴ ロボットとの比較によって強調され、センサー シミュレーションと空間推論の精度が高いことが実証されています。
さらに、yamaS はバーチャル リアリティ (VR) を統合してヒューマン ロボット インタラクション (HRI) 研究を強化し、開発者や研究者に没入型のプラットフォームを提供します。
この融合により、yamaS は自律システムの開発とテストのための多用途で価値のあるツールとして確立され、ロボット シミュレーションと AI 主導のトレーニング方法論の分野に貢献します。

要約(オリジナル)

This paper introduces YamaS, a simulator integrating Unity3D Engine with Robotic Operating System for robot navigation research and aims to facilitate the development of both Deep Reinforcement Learning (Deep-RL) and Natural Language Processing (NLP). It supports single and multi-agent configurations with features like procedural environment generation, RGB vision, and dynamic obstacle navigation. Unique to YamaS is its ability to construct single and multi-agent environments, as well as generating agent’s behaviour through textual descriptions. The simulator’s fidelity is underscored by comparisons with the real-world Yamabiko Beego robot, demonstrating high accuracy in sensor simulations and spatial reasoning. Moreover, YamaS integrates Virtual Reality (VR) to augment Human-Robot Interaction (HRI) studies, providing an immersive platform for developers and researchers. This fusion establishes YamaS as a versatile and valuable tool for the development and testing of autonomous systems, contributing to the fields of robot simulation and AI-driven training methodologies.

arxiv情報

著者 Victor A. Kich,Jair A. Bottega,Raul Steinmetz,Ricardo B. Grando,Ayanori Yorozu,Akihisa Ohya
発行日 2024-05-27 04:31:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.HC, cs.RO パーマリンク