A Human-Centric Approach to Explainable AI for Personalized Education

要約

深いニューラルネットワークは、人工知能研究のバックボーンを形成し、自律運転からパーソナルアシスタント、ヘルスケア、教育に至るまでの分野での人間の経験を変える可能性があります。
ただし、現実世界の教室の日常生活への統合は依然として限られています。
教師は、特定の弱点をターゲットにした個別の宿題を生徒に割り当てたり、生徒にすぐにフィードバックを提供したり、新しい試験の質問に対する生徒の回答をシミュレートしたりすることはまだ一般的ではありません。
これらのモデルは予測パフォーマンスに優れていますが、この採用の欠如は、モデルの決定の説明可能性の欠如、つまり学生、保護者、教師からの信頼の欠如につながるという重要な弱点に起因する可能性があります。
この論文の目的は、人間のニーズを、パーソナライズされた学習と教育の具体的なユースケースに基づいた、説明可能なAI(XAI)研究の最前線にもたらすことを目的としています。
Xaiの技術的進歩とその整合した人間の研究の2つの垂直に沿った貢献を組み立てます。
教育のためのAIの説明可能性を調査し、事後説明者の間の体系的な意見の不一致を明らかにし、本質的に解釈可能なモデルアーキテクチャの必要性を特定します。
マルチモーダルモジュラーアーキテクチャ(MultiMoDN)、解釈可能な専門家モデル(解釈の混合物)、説明担当者の安定性のための敵対的なトレーニング、および学生に説明を提示する理論主導のLLM-XAIフレームワーク(Illuminate)を提示するための理論主導のLLM-XAIフレームワークを使用して、解釈可能性における4つの新しい技術的貢献を提案します。
既存の説明者の経験的評価と新しい建築設計や人間の研究を組み合わせることにより、私たちの仕事は、最先端のパフォーマンスと組み込みの透明性と信頼のバランスをとる人間中心のAIシステムの基礎を築きます。

要約(オリジナル)

Deep neural networks form the backbone of artificial intelligence research, with potential to transform the human experience in areas ranging from autonomous driving to personal assistants, healthcare to education. However, their integration into the daily routines of real-world classrooms remains limited. It is not yet common for a teacher to assign students individualized homework targeting their specific weaknesses, provide students with instant feedback, or simulate student responses to a new exam question. While these models excel in predictive performance, this lack of adoption can be attributed to a significant weakness: the lack of explainability of model decisions, leading to a lack of trust from students, parents, and teachers. This thesis aims to bring human needs to the forefront of eXplainable AI (XAI) research, grounded in the concrete use case of personalized learning and teaching. We frame the contributions along two verticals: technical advances in XAI and their aligned human studies. We investigate explainability in AI for education, revealing systematic disagreements between post-hoc explainers and identifying a need for inherently interpretable model architectures. We propose four novel technical contributions in interpretability with a multimodal modular architecture (MultiModN), an interpretable mixture-of-experts model (InterpretCC), adversarial training for explainer stability, and a theory-driven LLM-XAI framework to present explanations to students (iLLuMinaTE), which we evaluate in diverse settings with professors, teachers, learning scientists, and university students. By combining empirical evaluations of existing explainers with novel architectural designs and human studies, our work lays a foundation for human-centric AI systems that balance state-of-the-art performance with built-in transparency and trust.

arxiv情報

著者 Vinitra Swamy
発行日 2025-05-28 16:23:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CY, cs.LG パーマリンク