要約
このホワイトペーパーでは、認知、コミュニケーション、または学習のニーズが多様なユーザーとの人間とロボットの相互作用(HRI)をサポートするように設計された、アクセス可能で教育的に接地されたロボットの説明可能性のための新しいフレームワークを紹介します。
Universal Design for Learning(UDL)とUniversal Design(UD)の原則を象徴的なコミュニケーション戦略と組み合わせて、人間とロボット間のメンタルモデルの整合を促進します。
私たちのアプローチでは、アスタックスグリッドとアラサックのピクトグラムを、リアルタイムの相互作用と説明トリガーを可能にする軽量のHTTPからROS 2ブリッジと統合された、マルチモーダルで解釈可能なフロントエンドとして採用されています。
説明可能性は一方向の機能ではなく、人間の理解とロボットの透明性が共進化しなければならない双方向のプロセスであることを強調します。
さらに、教育的または支援的な文脈において、人間の調停者(たとえば、教師)の役割が共有された理解をサポートするために不可欠かもしれないと主張します。
マルチモーダルの説明ボードの例でフレームワークを検証し、教育、支援ロボット工学、包括的AIのさまざまなシナリオに拡張する方法について説明します。
要約(オリジナル)
This paper presents a novel framework for accessible and pedagogically-grounded robot explainability, designed to support human-robot interaction (HRI) with users who have diverse cognitive, communicative, or learning needs. We combine principles from Universal Design for Learning (UDL) and Universal Design (UD) with symbolic communication strategies to facilitate the alignment of mental models between humans and robots. Our approach employs Asterics Grid and ARASAAC pictograms as a multimodal, interpretable front-end, integrated with a lightweight HTTP-to-ROS 2 bridge that enables real-time interaction and explanation triggering. We emphasize that explainability is not a one-way function but a bidirectional process, where human understanding and robot transparency must co-evolve. We further argue that in educational or assistive contexts, the role of a human mediator (e.g., a teacher) may be essential to support shared understanding. We validate our framework with examples of multimodal explanation boards and discuss how it can be extended to different scenarios in education, assistive robotics, and inclusive AI.
arxiv情報
著者 | Francisco J. Rodríguez Lera,Raquel Fernández Hernández,Sonia Lopez González,Miguel Angel González-Santamarta,Francisco Jesús Rodríguez Sedano,Camino Fernandez Llamas |
発行日 | 2025-04-08 16:33:52+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google