Theory of Mind abilities of Large Language Models in Human-Robot Interaction : An Illusion?

要約

大規模言語モデルは、さまざまな自然言語および生成タスクにおいて優れた生成能力を示しています。
しかし、擬人化の可能性と失敗例に対する寛大さにより、大規模言語モデルの新たな能力、特に大規模言語モデルの心の理論 (ToM) 能力に関する議論が推進されています。
別の実体のメンタルモデルを推測し維持する能力を検証するためにいくつかの誤った信念のテストが存在しますが、私たちは、より大きな賭けとおそらく取り返しのつかない結果を伴うToM能力の特別な応用、つまりヒューマンロボットインタラクションを研究します。
この研究では、ロボットが大規模言語モデル (LLM) を使用して、人間の観察者と同様の方法でロボットの生成された動作を評価する、知覚動作認識のタスクを検討します。
私たちは、解釈可能なロボットの動作を合成するために広く使用されている、説明可能な動作、判読可能な動作、予測可能な動作、および難読化された動作の 4 つの動作タイプに焦点を当てます。
したがって、LLM の目標は、エージェントの人間の代理人となり、ループ内の人間が特定のエージェントの動作をどのように認識するかに答えることです。たとえば、「ロボットの動作 X が与えられた場合、人間の観察者はそれが説明可能であると考えるでしょうか?」
‘。
私たちは人間を対象とした研究を実施し、5 つのドメインにわたって厳選された状況 (ロボットの設定と計画) でユーザーがそのような質問に正しく答えることができることを検証します。
信念テストの最初の分析では、LLM が ToM 能力を持っているという期待を膨らませる非常に肯定的な結果が得られました。
次に、この幻想を打ち破る一連の摂動テスト、つまり、一貫性のない信念、情報のない文脈、確信テストを提案し、実行します。
我々は、バニラプロンプトでの LLM の高いスコアは、HRI 設定での LLM の潜在的な使用法を示しているが、ToM を所有するには、LLM に欠けているコンテキスト内の些細なまたは無関係な摂動に対する不変性を要求すると結論付けています。

要約(オリジナル)

Large Language Models have shown exceptional generative abilities in various natural language and generation tasks. However, possible anthropomorphization and leniency towards failure cases have propelled discussions on emergent abilities of Large Language Models especially on Theory of Mind (ToM) abilities in Large Language Models. While several false-belief tests exists to verify the ability to infer and maintain mental models of another entity, we study a special application of ToM abilities that has higher stakes and possibly irreversible consequences : Human Robot Interaction. In this work, we explore the task of Perceived Behavior Recognition, where a robot employs a Large Language Model (LLM) to assess the robot’s generated behavior in a manner similar to human observer. We focus on four behavior types, namely – explicable, legible, predictable, and obfuscatory behavior which have been extensively used to synthesize interpretable robot behaviors. The LLMs goal is, therefore to be a human proxy to the agent, and to answer how a certain agent behavior would be perceived by the human in the loop, for example ‘Given a robot’s behavior X, would the human observer find it explicable?’. We conduct a human subject study to verify that the users are able to correctly answer such a question in the curated situations (robot setting and plan) across five domains. A first analysis of the belief test yields extremely positive results inflating ones expectations of LLMs possessing ToM abilities. We then propose and perform a suite of perturbation tests which breaks this illusion, i.e. Inconsistent Belief, Uninformative Context and Conviction Test. We conclude that, the high score of LLMs on vanilla prompts showcases its potential use in HRI settings, however to possess ToM demands invariance to trivial or irrelevant perturbations in the context which LLMs lack.

arxiv情報

著者 Mudit Verma,Siddhant Bhambri,Subbarao Kambhampati
発行日 2024-01-17 18:45:39+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.HC, cs.RO パーマリンク