要約
ヒューマノイドロボットの認知自律性を改善するために、この研究では、この分野におけるマルチモーダル理解の技術的欠点を解決するマルチシナリオ推論アーキテクチャを提案します。
これは、マルチモーダル合成 (視覚、聴覚、触覚) を採用したシミュレーションベースの実験計画に基づいており、実験を実行するためのシミュレーター「Maha」を構築します。
この調査結果は、マルチモーダル データにおけるこのアーキテクチャの実現可能性を示しています。
動的環境におけるヒューマノイド ロボットのクロスモーダル インタラクション戦略を探求するための参考体験を提供します。
さらに、マルチシナリオ推論は、人間の脳の高度な推論メカニズムを認知レベルで人型ロボットにシミュレートします。
この新しい概念は、シナリオを超えた実践的なタスクの転送とセマンティック主導のアクション プランニングを促進します。
これは、変化するシナリオにおける人型ロボットの自己学習と自律的行動の将来の発展を予告します。
要約(オリジナル)
To improve the cognitive autonomy of humanoid robots, this research proposes a multi-scenario reasoning architecture to solve the technical shortcomings of multi-modal understanding in this field. It draws on simulation based experimental design that adopts multi-modal synthesis (visual, auditory, tactile) and builds a simulator ‘Maha’ to perform the experiment. The findings demonstrate the feasibility of this architecture in multimodal data. It provides reference experience for the exploration of cross-modal interaction strategies for humanoid robots in dynamic environments. In addition, multi-scenario reasoning simulates the high-level reasoning mechanism of the human brain to humanoid robots at the cognitive level. This new concept promotes cross-scenario practical task transfer and semantic-driven action planning. It heralds the future development of self-learning and autonomous behavior of humanoid robots in changing scenarios.
arxiv情報
著者 | Libo Wang |
発行日 | 2025-01-07 18:24:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google