From Novice to Skilled: RL-based Shared Autonomy Communicating with Pilots in UAV Multi-Task Missions

要約

検査と着陸タスクを含む無人航空機(UAV)のマルチタスクミッションは、深さの知覚と制御インターフェイスに関連する困難のために、初心者のパイロットにとって困難です。
パイロットがパイロットトレーニングなしでマルチタスクミッションを完了することを成功させるのを支援するために、補足情報ディスプレイとともに共有された自律システムを提案します。
私たちのアプローチは、3つのモジュールで構成されています。(1)潜在的な表現に視覚情報をエンコードする知覚モジュール、(2)パイロットのアクションを補強するポリシーモジュール、および(3)パイロットに追加情報を提供する情報増強モジュール。
ポリシーモジュールは、シミュレートされたユーザーとのシミュレーションのトレーニングを受け、ユーザー調査では変更せずに現実世界に転送され(n = 29)、学習された赤/緑色の光のフィードバックキューや拡張現実ディスプレイを含む代替の補足情報スキームがあります。
パイロットの意図はポリシーモジュールには知られておらず、パイロットの入力とUAVの状態から推測されます。
アシスタントは、上陸および検査タスクのタスクの成功率をそれぞれ[16.67%&54.29%]から[95.59%&96.22%]に増加させました。
アシスタントとともに、経験の浅いパイロットは、経験豊富なパイロットと同様のパフォーマンスを達成しました。
赤/緑色の光のフィードバックキューは、検査タスクで必要な時間を19.53%、軌跡の長さを17.86%短縮しました。参加者は、直感的なインターフェイスと安心を提供するために、それを好みの状態と評価しました。
この作業は、シンプルなユーザーモデルがシミュレーションで共有自律システムをトレーニングし、物理的なタスクに転送してユーザーの意図を推定し、パイロットに効果的な支援と情報を提供できることを示しています。

要約(オリジナル)

Multi-task missions for unmanned aerial vehicles (UAVs) involving inspection and landing tasks are challenging for novice pilots due to the difficulties associated with depth perception and the control interface. We propose a shared autonomy system, alongside supplementary information displays, to assist pilots to successfully complete multi-task missions without any pilot training. Our approach comprises of three modules: (1) a perception module that encodes visual information onto a latent representation, (2) a policy module that augments pilot’s actions, and (3) an information augmentation module that provides additional information to the pilot. The policy module is trained in simulation with simulated users and transferred to the real world without modification in a user study (n=29), alongside alternative supplementary information schemes including learnt red/green light feedback cues and an augmented reality display. The pilot’s intent is unknown to the policy module and is inferred from the pilot’s input and UAV’s states. The assistant increased task success rate for the landing and inspection tasks from [16.67% & 54.29%] respectively to [95.59% & 96.22%]. With the assistant, inexperienced pilots achieved similar performance to experienced pilots. Red/green light feedback cues reduced the required time by 19.53% and trajectory length by 17.86% for the inspection task, where participants rated it as their preferred condition due to the intuitive interface and providing reassurance. This work demonstrates that simple user models can train shared autonomy systems in simulation, and transfer to physical tasks to estimate user intent and provide effective assistance and information to the pilot.

arxiv情報

著者 Kal Backman,Dana Kulić,Hoam Chung
発行日 2025-01-22 22:01:33+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク