要約
大規模言語モデル (LLM) は、L2 の英語学習者を指導するための、すぐに利用でき、コスト効率の高い会話型インテリジェント個別指導システム (CITS) として機能する大きな可能性を秘めています。
しかし、既存の CITS は、単純な概念のみを教えるように設計されているか、多様な学習戦略に対処するために必要な教育的な深みが欠けています。
複雑な概念を教えることができる、より教育学的に情報に基づいた CITS を開発するために、私たちは、1 対 1 の人間対人間の英語個別指導インタラクションのバイリンガル教育学的に情報に基づいた個別指導データセット (BIPED) を構築します。
個別指導のやり取りの事後分析を通じて、対話行為の辞書 (34 の家庭教師の行為と 9 の生徒の行為) を作成し、収集したデータセットにさらに注釈を付けるために使用します。
最初に適切な家庭教師の行為を予測し、次に対応する応答を生成するという 2 段階のフレームワークに基づいて、GPT-4 と SOLAR-KO をそれぞれ使用して 2 つの CITS モデルを実装しました。
私たちは、実装されたモデルが人間の教師のスタイルを再現するだけでなく、多様で状況に応じて適切な教育戦略を採用していることを実験的に示しています。
要約(オリジナル)
Large Language Models (LLMs) have a great potential to serve as readily available and cost-efficient Conversational Intelligent Tutoring Systems (CITS) for teaching L2 learners of English. Existing CITS, however, are designed to teach only simple concepts or lack the pedagogical depth necessary to address diverse learning strategies. To develop a more pedagogically informed CITS capable of teaching complex concepts, we construct a BIlingual PEDagogically-informed Tutoring Dataset (BIPED) of one-on-one, human-to-human English tutoring interactions. Through post-hoc analysis of the tutoring interactions, we come up with a lexicon of dialogue acts (34 tutor acts and 9 student acts), which we use to further annotate the collected dataset. Based on a two-step framework of first predicting the appropriate tutor act then generating the corresponding response, we implemented two CITS models using GPT-4 and SOLAR-KO, respectively. We experimentally demonstrate that the implemented models not only replicate the style of human teachers but also employ diverse and contextually appropriate pedagogical strategies.
arxiv情報
| 著者 | Soonwoo Kwon,Sojung Kim,Minju Park,Seunghyun Lee,Kyuseok Kim |
| 発行日 | 2024-06-05 17:49:24+00:00 |
| arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google