DyGKT: Dynamic Graph Learning for Knowledge Tracing

要約

ナレッジ トレーシングは、質問への回答における生徒のパフォーマンスを予測することで、生徒の学習状態を評価することを目的としています。
固定長の学習シーケンスを利用して生徒の状態を取得し、KT を静的問題とみなす既存の研究とは異なり、この研究は 3 つの動的特性によって動機付けられています。1) 生徒の回答記録の規模は常に拡大しています。
2) レコード間の時間間隔の意味は異なります。
3) 学生間の関係、質問、コンセプトは進化しています。
上記の 3 つの動的特性には、既存の知識追跡方法に革命をもたらす大きな可能性が含まれています。
この方針に沿って、動的グラフベースの知識追跡モデル、すなわち DyGKT を提案します。
特に、知識追跡のための連続時間動的質問応答グラフは、無限に増加する応答行動に対処するために構築されており、この分野で動的グラフ学習技術が初めて使用されたことは特筆に値します。
次に、異なる時間間隔の間で長期および短期のセマンティクスを捕捉するためのデュアルタイムエンコーダが提案されています。
最後に、マルチセット インジケーターを利用して、グラフ構造の特徴を通じて生徒、質問、概念の間の進化する関係をモデル化します。
5 つの現実世界のデータセットに対して多数の実験が行われ、その結果は私たちのモデルの優位性を示しています。
使用されているすべてのリソースは、https://github.com/PengLinzhi/DyGKT で公開されています。

要約(オリジナル)

Knowledge Tracing aims to assess student learning states by predicting their performance in answering questions. Different from the existing research which utilizes fixed-length learning sequence to obtain the student states and regards KT as a static problem, this work is motivated by three dynamical characteristics: 1) The scales of students answering records are constantly growing; 2) The semantics of time intervals between the records vary; 3) The relationships between students, questions and concepts are evolving. The three dynamical characteristics above contain the great potential to revolutionize the existing knowledge tracing methods. Along this line, we propose a Dynamic Graph-based Knowledge Tracing model, namely DyGKT. In particular, a continuous-time dynamic question-answering graph for knowledge tracing is constructed to deal with the infinitely growing answering behaviors, and it is worth mentioning that it is the first time dynamic graph learning technology is used in this field. Then, a dual time encoder is proposed to capture long-term and short-term semantics among the different time intervals. Finally, a multiset indicator is utilized to model the evolving relationships between students, questions, and concepts via the graph structural feature. Numerous experiments are conducted on five real-world datasets, and the results demonstrate the superiority of our model. All the used resources are publicly available at https://github.com/PengLinzhi/DyGKT.

arxiv情報

著者 Ke Cheng,Linzhi Peng,Pengyang Wang,Junchen Ye,Leilei Sun,Bowen Du
発行日 2024-07-30 13:43:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.LG パーマリンク