Human-Centric Autonomous Systems With LLMs for User Command Reasoning

要約

自動運転の進化は近年目覚ましく、具体的なものへと進化しています。
ただし、人間中心の大規模導入は、さまざまな多面的な要件を満たすかどうかにかかっています。
自律システムがユーザーの意図を確実に満たすためには、特に複雑な状況や緊急の状況において、ユーザーのコマンドを正確に識別して解釈することが不可欠です。
この目的を達成するために、大規模言語モデル (LLM) の推論機能を活用して、車室内ユーザーのコマンドからシステム要件を推測することを提案します。
さまざまな LLM モデルとプロンプト設計を含む一連の実験を通じて、自然言語テキスト コマンドからのシステム要件の少数ショット多変量バイナリ分類精度を調査します。
私たちは、LLM がプロンプトを理解し推論する一般的な能力を確認しますが、その有効性が LLM モデルと適切な連続プロンプトの設計の両方の品質に依存していることを強調します。
コードとモデルはリンク \url{https://github.com/KTH-RPL/DriveCmd_LLM} で公開されています。

要約(オリジナル)

The evolution of autonomous driving has made remarkable advancements in recent years, evolving into a tangible reality. However, a human-centric large-scale adoption hinges on meeting a variety of multifaceted requirements. To ensure that the autonomous system meets the user’s intent, it is essential to accurately discern and interpret user commands, especially in complex or emergency situations. To this end, we propose to leverage the reasoning capabilities of Large Language Models (LLMs) to infer system requirements from in-cabin users’ commands. Through a series of experiments that include different LLM models and prompt designs, we explore the few-shot multivariate binary classification accuracy of system requirements from natural language textual commands. We confirm the general ability of LLMs to understand and reason about prompts but underline that their effectiveness is conditioned on the quality of both the LLM model and the design of appropriate sequential prompts. Code and models are public with the link \url{https://github.com/KTH-RPL/DriveCmd_LLM}.

arxiv情報

著者 Yi Yang,Qingwen Zhang,Ci Li,Daniel Simões Marta,Nazre Batool,John Folkesson
発行日 2023-11-14 14:42:28+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.RO パーマリンク