要約
この論文では、専門家のデモンストレーション データを使用して、完全に作動した自律水上艦艇を自律的にドッキングするためのアプローチを紹介します。
私たちはドッキング問題を模倣学習タスクとして組み立て、逆強化学習 (IRL) を使用してエキスパートの軌跡から報酬関数を学習します。
センサーからの環境コンテキストと車両の運動学の両方を報酬関数に組み込むために、2 段階のニューラル ネットワーク アーキテクチャが実装されています。
学習された報酬はモーション プランナーで使用され、ドッキング軌道が生成されます。
シミュレーション実験では、さまざまな環境構成にわたって人間のようなドッキング動作を生成するこのアプローチの有効性を実証しています。
要約(オリジナル)
This paper presents an approach for autonomous docking of a fully actuated autonomous surface vessel using expert demonstration data. We frame the docking problem as an imitation learning task and employ inverse reinforcement learning (IRL) to learn a reward function from expert trajectories. A two-stage neural network architecture is implemented to incorporate both environmental context from sensors and vehicle kinematics into the reward function. The learned reward is then used with a motion planner to generate docking trajectories. Experiments in simulation demonstrate the effectiveness of this approach in producing human-like docking behaviors across different environmental configurations.
arxiv情報
著者 | Akash Vijayakumar,Atmanand M A,Abhilash Somayajula |
発行日 | 2024-11-12 04:58:51+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google