KARL: Knowledge-Aware Retrieval and Representations aid Retention and Learning in Students

要約

フラッシュカードスケジューラは、1)生徒が知っているフラッシュカードを予測する生徒モデルと、2)その予測に基づいて次に表示するカードを選択する指導方針に依存しています。しかし、先行する生徒モデルは、生徒の過去の解答のような学習データを利用するだけで、カード上のテキストを無視している。我々は、フラッシュカードの内容を利用した最初のスケジューラである、内容を考慮したスケジューリングを提案する。このようなスケジューラが生徒の学習を向上させるという最初の証拠を示すために、KARLを構築する。KARLは、ディープナレッジトレーシング(DKT)、検索、および生徒の想起を予測するためのBERTを採用した、シンプルだが効果的な内容認識生徒モデルである。KARLは、123,143の学習ログからなる新しいデータセットを収集し、多様なトリビア問題に対して学習する。KARLは、AUCと較正誤差において既存の学生モデルを凌駕している。我々の改善された予測がより良い生徒の学習につながることを確実にするために、KARLをオンラインで展開するための新しいデルタベースの教育方針を作成する。27人のユーザーによる32の学習経路に基づき、KARLはSOTAよりも学習効率を向上させ、KARLの強みを示すとともに、生徒の能力を完全に把握するために過去の学習データ以外にも目を向けることを研究者に促す。

要約(オリジナル)

Flashcard schedulers rely on 1) student models to predict the flashcards a student knows; and 2) teaching policies to pick which cards to show next via these predictions. Prior student models, however, just use study data like the student’s past responses, ignoring the text on cards. We propose content-aware scheduling, the first schedulers exploiting flashcard content. To give the first evidence that such schedulers enhance student learning, we build KARL, a simple but effective content-aware student model employing deep knowledge tracing (DKT), retrieval, and BERT to predict student recall. We train KARL by collecting a new dataset of 123,143 study logs on diverse trivia questions. KARL bests existing student models in AUC and calibration error. To ensure our improved predictions lead to better student learning, we create a novel delta-based teaching policy to deploy KARL online. Based on 32 study paths from 27 users, KARL improves learning efficiency over SOTA, showing KARL’s strength and encouraging researchers to look beyond historical study data to fully capture student abilities.

arxiv情報

著者 Matthew Shu,Nishant Balepur,Shi Feng,Jordan Boyd-Graber
発行日 2024-10-04 15:08:14+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL パーマリンク