要約
本研究では、ヒューマノイドロボットの認知自律性を向上させるために、マルチモーダル理解の技術的欠点を解決するマルチシナリオ推論アーキテクチャを提案する。マルチモーダル合成(視覚、聴覚、触覚)を採用したシミュレーションベースの実験設計を採用し、実験を行うためのシミュレータ「Maha」を構築する。その結果、マルチモーダルデータにおけるこのアーキテクチャの実現可能性が実証された。これは、動的環境におけるヒューマノイドロボットのクロスモーダルインタラクション戦略の探索のための参考経験を提供する。さらに、マルチシナリオ推論は、人間の脳の高レベル推論メカニズムを認知レベルでヒューマノイドロボットにシミュレートする。この新しいコンセプトは、クロスシナリオの実用的なタスク転送と意味主導の行動計画を促進します。これは、変化するシナリオにおけるヒューマノイドロボットの自己学習と自律的行動の将来の発展を予告するものである。
要約(オリジナル)
To improve the cognitive autonomy of humanoid robots, this research proposes a multi-scenario reasoning architecture to solve the technical shortcomings of multi-modal understanding in this field. It draws on simulation based experimental design that adopts multi-modal synthesis (visual, auditory, tactile) and builds a simulator ‘Maha’ to perform the experiment. The findings demonstrate the feasibility of this architecture in multimodal data. It provides reference experience for the exploration of cross-modal interaction strategies for humanoid robots in dynamic environments. In addition, multi-scenario reasoning simulates the high-level reasoning mechanism of the human brain to humanoid robots at the cognitive level. This new concept promotes cross-scenario practical task transfer and semantic-driven action planning. It heralds the future development of self-learning and autonomous behavior of humanoid robots in changing scenarios.
arxiv情報
著者 | Libo Wang |
発行日 | 2025-01-02 21:52:28+00:00 |
arxivサイト | arxiv_id(pdf) |