MIMo: A Multi-Modal Infant Model for Studying Cognitive Development

要約

人間の知性と意識は、認知発達の過程で徐々に現れます。
この発展を理解することは人間の心を理解する上で不可欠な側面であり、同様の特性を持つ人工心の構築を容易にする可能性があります。
重要なのは、人間の認知発達は、相補的な感覚様式を介して知覚される、物理的および社会的環境との具体化された相互作用に依存しているということです。
これらの相互作用により、発達中の精神は世界の因果構造を探ることができます。
これは、大量のトレーニング データを単に受動的に「消化」しているだけで、感覚入力を制御していない大規模な言語モデルなどの一般的な機械学習アプローチとはまったく対照的です。
しかし、人間の知性と意識につながる、自己決定による身体的相互作用のようなものを計算機でモデリングすることは、手ごわい課題です。
ここでは、コンピューター シミュレーションを通じて初期の認知発達を研究するためのオープンソースのマルチモーダル幼児モデルである MIMo を紹介します。
MIMo のボディは、精巧な 5 本の指を持つ生後 18 か月の子供をモデルにしています。
MIMo は、両眼視、前庭系、固有受容、全身の仮想皮膚を介した触覚を介して周囲を認識し、2 つの異なる作動モデルによって身体の制御が可能になります。
MIMo の設計とインターフェイスについて説明し、その使用法を示す例を提供します。
すべてのコードは https://github.com/trieschlab/MIMo で入手できます。

要約(オリジナル)

Human intelligence and human consciousness emerge gradually during the process of cognitive development. Understanding this development is an essential aspect of understanding the human mind and may facilitate the construction of artificial minds with similar properties. Importantly, human cognitive development relies on embodied interactions with the physical and social environment, which is perceived via complementary sensory modalities. These interactions allow the developing mind to probe the causal structure of the world. This is in stark contrast to common machine learning approaches, e.g., for large language models, which are merely passively “digesting” large amounts of training data, but are not in control of their sensory inputs. However, computational modeling of the kind of self-determined embodied interactions that lead to human intelligence and consciousness is a formidable challenge. Here we present MIMo, an open-source multi-modal infant model for studying early cognitive development through computer simulations. MIMo’s body is modeled after an 18-month-old child with detailed five-fingered hands. MIMo perceives its surroundings via binocular vision, a vestibular system, proprioception, and touch perception through a full-body virtual skin, while two different actuation models allow control of his body. We describe the design and interfaces of MIMo and provide examples illustrating its use. All code is available at https://github.com/trieschlab/MIMo .

arxiv情報

著者 Dominik Mattern,Pierre Schumacher,Francisco M. López,Marcel C. Raabe,Markus R. Ernst,Arthur Aubret,Jochen Triesch
発行日 2023-12-07 14:21:31+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク