要約
視認性が限られているロボットチームメイトからの観察を使用して、人間の状況認識のリアルタイムの推定を調査します。
ヒューマンファクターとヒューマン自由チームのチームでは、個人が内部の精神シミュレーションまたはメンタルモデルを使用して環境をナビゲートすることが認識されています。
メンタルモデルは、状況認識、文脈上の推論、タスク計画などの認知プロセスを通知します。
チーム化ドメインでは、メンタルモデルには、各チームメイトの信念と能力のチームモデルが含まれており、明示的なコミュニケーションを必要とせずに流fluentチームワークを可能にします。
ただし、チームモデルを人間のロボットチームに適用した作業はほとんどありません。
この作業では、さまざまな視認性条件よりもユーザーの状況認識を推定する2つのモデル、論理述語と大規模な言語モデルのパフォーマンスを比較します。
我々の結果は、この方法がドメインの低い視界条件に対して主に回復力があることを示していますが、全体的なパフォーマンスを改善する機会が存在します。
要約(オリジナル)
We investigate the real-time estimation of human situation awareness using observations from a robot teammate with limited visibility. In human factors and human-autonomy teaming, it is recognized that individuals navigate their environments using an internal mental simulation, or mental model. The mental model informs cognitive processes including situation awareness, contextual reasoning, and task planning. In teaming domains, the mental model includes a team model of each teammate’s beliefs and capabilities, enabling fluent teamwork without the need for explicit communication. However, little work has applied team models to human-robot teaming. In this work we compare the performance of two models, logical predicates and large language models, at estimating user situation awareness over varying visibility conditions. Our results indicate that the methods are largely resilient to low-visibility conditions in our domain, however opportunities exist to improve their overall performance.
arxiv情報
著者 | Jack Kolb,Karen M. Feigh |
発行日 | 2025-02-12 05:47:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google