要約
ヒューマノイドロボットの認知自律性を改善するために、この研究では、この分野におけるマルチモーダル理解の技術的欠点を解決するマルチシナリオ推論アーキテクチャを提案します。
これは、マルチモーダル合成 (視覚、聴覚、触覚) を採用したシミュレーションベースの実験計画に基づいており、実験を実行するためのシミュレーター「Maha」を構築します。
この調査結果は、マルチモーダル データにおけるこのアーキテクチャの実現可能性を示しています。
動的環境におけるヒューマノイド ロボットのクロスモーダル インタラクション戦略を探求するためのリファレンス エクスペリエンスを提供します。
要約(オリジナル)
To improve the cognitive autonomy of humanoid robots, this research proposes a multi-scenario reasoning architecture to solve the technical shortcomings of multi-modal understanding in this field. It draws on simulation based experimental design that adopts multi-modal synthesis (visual, auditory, tactile) and builds a simulator ‘Maha’ to perform the experiment. The findings demonstrate the feasibility of this architecture in multimodal data. It provides reference experience for the exploration of cross-modal interaction strategies for humanoid robots in dynamic environments.
arxiv情報
著者 | Libo Wang |
発行日 | 2024-12-29 10:46:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google