Multi-granulariy Time-based Transformer for Knowledge Tracing

要約

【タイトル】
知識トレーシングにおけるMulti-granulariy Time-based Transformer

【要約】
・本論文では、標準化テストにおける学生の成績を予測するためのTransformerアーキテクチャを提案する。
・学生の過去のテストスコア、勉強習慣、その他の関連情報などを含めた学生の歴史的データを活用して、各学生に個人用モデルを作成する。
・その後、これらのモデルを使用して、あるテストにおける学生の将来の成績を予測する。
・RIIIDデータセットにこのモデルを適用し、デコーダ入力として複数の時間特性の多数の粒度を使用することが、モデルの性能を大幅に向上させることを示す。
・また、LightGBM法と比較して、アプローチの効果も証明される。
・本研究は、AI教育分野に貢献し、学生の成果を予測するための拡張性と正確性のあるツールを提供している。

要約(オリジナル)

In this paper, we present a transformer architecture for predicting student performance on standardized tests. Specifically, we leverage students historical data, including their past test scores, study habits, and other relevant information, to create a personalized model for each student. We then use these models to predict their future performance on a given test. Applying this model to the RIIID dataset, we demonstrate that using multiple granularities for temporal features as the decoder input significantly improve model performance. Our results also show the effectiveness of our approach, with substantial improvements over the LightGBM method. Our work contributes to the growing field of AI in education, providing a scalable and accurate tool for predicting student outcomes.

arxiv情報

著者 Tong Zhou
発行日 2023-04-11 14:46:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: cs.AI, cs.LG パーマリンク