Knowledge Graphs are all you need: Leveraging KGs in Physics Question Answering

要約

この研究では、高校レベルの物理学の質問をサブ質問に分解するために、大規模な言語モデルによって生成された知識グラフを使用することの有効性を調査します。
質問に答えるためのモデル応答品質の向上を目的としたパイプラインを紹介します。
LLMを使用して、質問の内部ロジックをキャプチャする知識グラフを構築することにより、これらのグラフはサブクエストの生成を導きます。
この方法は、従来の分解技術と比較して、元の質問とより論理的に一致するサブ質問をもたらすと仮定します。
我々の結果は、知識グラフから導き出されたサブ質問が、元の質問の論理に対する忠実度を大幅に改善することを示しています。
このアプローチは、より明確でより文脈的に適切なサブ質問を提供することにより、学習体験を向上させるだけでなく、LLMが教育方法論を変換する可能性を強調しています。
調査結果は、教育コンテンツの品質と有効性を改善するためにAIを適用するための有望な方向性を示しています。

要約(オリジナル)

This study explores the effectiveness of using knowledge graphs generated by large language models to decompose high school-level physics questions into sub-questions. We introduce a pipeline aimed at enhancing model response quality for Question Answering tasks. By employing LLMs to construct knowledge graphs that capture the internal logic of the questions, these graphs then guide the generation of subquestions. We hypothesize that this method yields sub-questions that are more logically consistent with the original questions compared to traditional decomposition techniques. Our results show that sub-questions derived from knowledge graphs exhibit significantly improved fidelity to the original question’s logic. This approach not only enhances the learning experience by providing clearer and more contextually appropriate sub-questions but also highlights the potential of LLMs to transform educational methodologies. The findings indicate a promising direction for applying AI to improve the quality and effectiveness of educational content.

arxiv情報

著者 Krishnasai Addala,Kabir Dev Paul Baghel,Dhruv Jain,Navya Gupta,Rishitej Reddy Vyalla,Chhavi Kirtani,Avinash Anand,Rajiv Ratn Shah
発行日 2025-06-11 14:43:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク