要約
Transformer アーキテクチャは、自然言語処理の長期的な依存関係の管理に貢献し、この分野における最新の変化の 1 つを表しています。
これらのアーキテクチャは、革新的で最先端の大規模言語モデル (LLM) の基礎であり、いくつかの分野や産業分野で大きな話題を生み出しており、その中でも特に教育分野が際立っています。
したがって、これらの生成的な人工知能ベースのソリューションは、技術の変化と教育方法とコンテンツの進化、およびネットワークインフラストラクチャを質の高い学習に向けてきました。
LLM の人気を考慮して、このレビューでは、教材の生成と評価を目的として設計され、学生や教師が設計や実験計画に関与するソリューションの包括的な概要を提供することを目的としています。
私たちの知る限り、これは LLM の教育アプリケーション (学生の評価など) の最初のレビューです。
予想どおり、これらのシステムの最も一般的な役割は、質問を自動生成するための仮想講師としての役割です。
さらに、最も人気のあるモデルは GTP-3 と BERT です。
ただし、新しい生成モデルが継続的に発表されているため、新しい作品が間もなく公開されることが予想されます。
要約(オリジナル)
Transformer architectures contribute to managing long-term dependencies for Natural Language Processing, representing one of the most recent changes in the field. These architectures are the basis of the innovative, cutting-edge Large Language Models (LLMs) that have produced a huge buzz in several fields and industrial sectors, among the ones education stands out. Accordingly, these generative Artificial Intelligence-based solutions have directed the change in techniques and the evolution in educational methods and contents, along with network infrastructure, towards high-quality learning. Given the popularity of LLMs, this review seeks to provide a comprehensive overview of those solutions designed specifically to generate and evaluate educational materials and which involve students and teachers in their design or experimental plan. To the best of our knowledge, this is the first review of educational applications (e.g., student assessment) of LLMs. As expected, the most common role of these systems is as virtual tutors for automatic question generation. Moreover, the most popular models are GTP-3 and BERT. However, due to the continuous launch of new generative models, new works are expected to be published shortly.
arxiv情報
著者 | Silvia García-Méndez,Francisco de Arriba-Pérez,María del Carmen Somoza-López |
発行日 | 2024-09-05 10:01:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google