Minimal Self in Humanoid Robot ‘Alter3’ Driven by Large Language Model

要約

本稿では、GPT-4、Large Language Model (LLM) の統合による自発的な動作生成を実証するヒューマノイド ロボット、Alter3 を紹介します。
これにより、言語モデルを直接ロボット制御に適用する際の課題が克服されます。
Alter3 は言語記述をアクションに変換することで、さまざまなタスクを自律的に実行できます。
ヒューマノイド ロボットの重要な側面は、人間の動きや感情を模倣する能力であり、言語モデルから人間の知識を活用できるようになります。
これは、Alter3+GPT-4 が主体性と所有権の感覚を備えた「最小限の自己」を開発できるかどうかという疑問を引き起こします。
この論文では、Alter3 の自己感覚の可能性を評価するための、鏡の自己認識テストとラバーハンド錯視テストを紹介します。
この研究は、身体を持たない言語モデルであっても、物理的なロボットプラットフォームと組み合わせることで主体性を発達させることができることを示唆しています。

要約(オリジナル)

This paper introduces Alter3, a humanoid robot that demonstrates spontaneous motion generation through the integration of GPT-4, Large Language Model (LLM). This overcomes challenges in applying language models to direct robot control. By translating linguistic descriptions into actions, Alter3 can autonomously perform various tasks. The key aspect of humanoid robots is their ability to mimic human movement and emotions, allowing them to leverage human knowledge from language models. This raises the question of whether Alter3+GPT-4 can develop a ‘minimal self’ with a sense of agency and ownership. This paper introduces mirror self-recognition and rubber hand illusion tests to assess Alter3’s potential for a sense of self. The research suggests that even disembodied language models can develop agency when coupled with a physical robotic platform.

arxiv情報

著者 Takahide Yoshida,Suzune Baba,Atsushi Masumori,Takashi Ikegami
発行日 2024-06-17 11:12:57+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.RO パーマリンク