TrustNavGPT: Modeling Uncertainty to Improve Trustworthiness of Audio-Guided LLM-Based Robot Navigation

要約

LLM は人間の会話におけるテキストの処理には熟練していますが、口頭での指示のニュアンスに困難が生じることが多く、そのため人間の命令に対する幻覚的な信頼を抱く傾向が依然としてあります。
この研究では、LLM ベースの音声ガイド付きナビゲーション エージェントである TrustNavGPT を紹介します。TrustNavGPT は、口調や抑揚など、言葉を超えて意味を伝える音声コミュニケーション要素の感情的な手がかりを使用して、人間のコマンドの信頼性を評価し、効果的で安全な意思決定を行うことを可能にします。
私たちのアプローチは、既存の LLM を拡張して、音声コマンドに埋め込まれたオーディオ音声特徴をモデル化し、安全なロボット ナビゲーションのための不確実性をモデル化する、軽量かつ効果的なアプローチを提供します。

要約(オリジナル)

While LLMs are proficient at processing text in human conversations, they often encounter difficulties with the nuances of verbal instructions and, thus, remain prone to hallucinate trust in human command. In this work, we present TrustNavGPT, an LLM based audio guided navigation agent that uses affective cues in spoken communication elements such as tone and inflection that convey meaning beyond words, allowing it to assess the trustworthiness of human commands and make effective, safe decisions. Our approach provides a lightweight yet effective approach that extends existing LLMs to model audio vocal features embedded in the voice command and model uncertainty for safe robotic navigation.

arxiv情報

著者 Xingpeng Sun,Yiran Zhang,Xindi Tang,Amrit Singh Bedi,Aniket Bera
発行日 2024-08-03 21:32:43+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク