LittleMu: Deploying an Online Virtual Teaching Assistant via Heterogeneous Sources Integration and Chain of Teach Prompts

要約

ティーチング・アシスタントは教育の長い歴史の中で重要な役割を果たしてきました。
しかし、現実世界のオンライン教育シナリオの複雑さとトレーニング データの不足により、大規模なオンライン学生の学習をサポートする人間または仮想のティーチング アシスタントを提供している MOOC プラットフォームはほとんどありません。
この論文では、質問応答と雑談サービスを提供する、最小限のラベル付きトレーニング データを備えた仮想 MOOC 教育アシスタント LittleMu を紹介します。
異種検索と言語モデル プロンプトの 2 つの対話型モジュールで構成されている LittleMu は、まず構造的、半的、非構造化の知識ソースを統合して、幅広い質問に対する正確な回答をサポートします。
次に、大規模な事前トレーニング済みモデルを活用して、収集されていない複雑な質問を処理するための「Chain of Teach」プロンプトと呼ばれる繊細なデモンストレーションを設計します。
質問応答以外にも、知識ベースのおしゃべりなどの教育サービスも開発しています。
当社では、オフライン評価とオンライン導入の両方を通じてシステムのパフォーマンスをテストします。
2020 年 5 月以来、当社の LittleMu システムは、XuetangX MOOC プラットフォーム上の 500 以上のコースから 300,000 件を超えるクエリを 80,000 人以上のユーザーに提供しており、より便利で公平な教育に継続的に貢献しています。
私たちのコード、サービス、データセットは https://github.com/THU-KEG/VTA で入手できます。

要約(オリジナル)

Teaching assistants have played essential roles in the long history of education. However, few MOOC platforms are providing human or virtual teaching assistants to support learning for massive online students due to the complexity of real-world online education scenarios and the lack of training data. In this paper, we present a virtual MOOC teaching assistant, LittleMu with minimum labeled training data, to provide question answering and chit-chat services. Consisting of two interactive modules of heterogeneous retrieval and language model prompting, LittleMu first integrates structural, semi- and unstructured knowledge sources to support accurate answers for a wide range of questions. Then, we design delicate demonstrations named ‘Chain of Teach’ prompts to exploit the large-scale pre-trained model to handle complex uncollected questions. Except for question answering, we develop other educational services such as knowledge-grounded chit-chat. We test the system’s performance via both offline evaluation and online deployment. Since May 2020, our LittleMu system has served over 80,000 users with over 300,000 queries from over 500 courses on XuetangX MOOC platform, which continuously contributes to a more convenient and fair education. Our code, services, and dataset will be available at https://github.com/THU-KEG/VTA.

arxiv情報

著者 Shangqing Tu,Zheyuan Zhang,Jifan Yu,Chunyang Li,Siyu Zhang,Zijun Yao,Lei Hou,Juanzi Li
発行日 2023-08-11 04:36:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.IR パーマリンク