要約
人工ニューラルネットワークのトレーニングは、適切な損失関数の慎重な選択に大きく依存しています。
一般的に使用される損失関数は、広範なタスクで一般的に十分な課題で十分であり、学習プロセス内のデータ品質の制限または非効率性のために課題がしばしば出現します。
このような状況では、補足用語の損失関数への統合は、これらの課題に対処し、モデルのパフォーマンスと堅牢性の両方を高めるのに役立ちます。
2つの顕著な手法、損失の正規化と対照学習は、人工ニューラルネットワークの損失関数の能力を強化するための効果的な戦略として特定されています。
知識トレースは、予測的な人工知能を活用して、学生のパーソナライズされた効率的な教育体験の自動化を促進する説得力のある研究分野です。
この論文では、高度な損失関数を使用してトレーニングされたディープラーニングベースの知識トレース(DKT)アルゴリズムの包括的なレビューを提供し、以前の手法での改善について議論します。
BI-CLKT、CL4KT、SP-CLKT、COSKT、予測親和なDKTなどのコントラスト知識トレースアルゴリズムについて説明し、実際の展開の課題に関するパフォーマンスベンチマークと洞察を提供します。
この調査は、ハイブリッド損失戦略やコンテキスト認識モデリングなど、将来の研究の方向性で終わります。
要約(オリジナル)
The training of artificial neural networks is heavily dependent on the careful selection of an appropriate loss function. While commonly used loss functions, such as cross-entropy and mean squared error (MSE), generally suffice for a broad range of tasks, challenges often emerge due to limitations in data quality or inefficiencies within the learning process. In such circumstances, the integration of supplementary terms into the loss function can serve to address these challenges, enhancing both model performance and robustness. Two prominent techniques, loss regularization and contrastive learning, have been identified as effective strategies for augmenting the capacity of loss functions in artificial neural networks. Knowledge tracing is a compelling area of research that leverages predictive artificial intelligence to facilitate the automation of personalized and efficient educational experiences for students. In this paper, we provide a comprehensive review of the deep learning-based knowledge tracing (DKT) algorithms trained using advanced loss functions and discuss their improvements over prior techniques. We discuss contrastive knowledge tracing algorithms, such as Bi-CLKT, CL4KT, SP-CLKT, CoSKT, and prediction-consistent DKT, providing performance benchmarks and insights into real-world deployment challenges. The survey concludes with future research directions, including hybrid loss strategies and context-aware modeling.
arxiv情報
著者 | Altun Shukurlu |
発行日 | 2025-04-21 15:09:40+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google