MICRACLE: Inverse Reinforcement and Curriculum Learning Model for Human-inspired Mobile Robot Navigation

要約

緊急事態のシナリオでは、移動ロボットは人間と同じように移動し、初期対応者の邪魔をせずに刺激を解釈して潜在的な犠牲者を迅速に特定する必要があります。
既存の社会を意識したナビゲーション アルゴリズムは、計算と適応性の課題に直面しています。
これらを克服するために、私たちはソリューション、MIRACLE を提案します。これは逆強化およびカリキュラム学習モデルであり、刺激主導型の人間のナビゲーション データを収集するためにゲーミフィケーション学習を採用しています。
このデータは、深層逆最大エントロピー強化学習モデルのトレーニングに使用され、デモンストレーターの能力への依存を軽減します。
テストの結果、400 サイズの環境内で損失が 2.7717 と低いことが明らかになり、人間のような応答の再現が示されています。
現在のデータベースには包括的な刺激駆動型データが不足しているため、私たちのアプローチが必要です。
これにより、ロボットが人間と同じような認識で緊急事態を回避できるようになり、救命能力が向上します。

要約(オリジナル)

In emergency scenarios, mobile robots must navigate like humans, interpreting stimuli to locate potential victims rapidly without interfering with first responders. Existing socially-aware navigation algorithms face computational and adaptability challenges. To overcome these, we propose a solution, MIRACLE — an inverse reinforcement and curriculum learning model, that employs gamified learning to gather stimuli-driven human navigational data. This data is then used to train a Deep Inverse Maximum Entropy Reinforcement Learning model, reducing reliance on demonstrator abilities. Testing reveals a low loss of 2.7717 within a 400-sized environment, signifying human-like response replication. Current databases lack comprehensive stimuli-driven data, necessitating our approach. By doing so, we enable robots to navigate emergency situations with human-like perception, enhancing their life-saving capabilities.

arxiv情報

著者 Nihal Gunukula,Kshitij Tiwari,Aniket Bera
発行日 2023-12-06 18:13:21+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG, cs.RO パーマリンク