要約
自然言語加工(NLP)の最近の進歩により、特にNLP埋め込みモデルの使用により、学習分析(LA)における学生生成言語製品の分析が容易になりました。
しかし、科学関連の言語に関しては、方程式や式などの象徴的な表現は、現在の埋め込みモデルが対処するのに苦労する課題を導入します。
既存の研究とアプリケーションは、これらの課題を見落とすか、象徴的な表現を完全に削除することが多く、偏った発見やLAアプリケーションのパフォーマンスの低下につながる可能性があります。
したがって、この研究では、現代の埋め込みモデルが科学関連の象徴的な表現を処理および解釈する能力がどのように異なるかを探ります。
この目的のために、類似性ベースの分析と機械学習パイプラインへの統合という2つのアプローチを介してパフォーマンスが評価された、本物の学生応答から描かれた物理学固有のシンボリック表現を使用して、さまざまな埋め込みモデルが評価されます。
私たちの調査結果は、モデルのパフォーマンスに大きな違いが明らかになり、OpenAIのGPT-Text-dembedding-3-Largeは他のすべての検査モデルを上回りますが、他のモデルよりも優れていましたが、決定的ではなく中程度でした。
パフォーマンスを超えて、コスト、規制コンプライアンス、モデルの透明性などの追加要因が、モデル選択の重要な考慮事項として議論されています。
全体として、この研究は、象徴的な表現を含む科学関連の言語製品を操作する際に、LAの研究者とNLP埋め込みモデルを慎重に選択することの重要性を強調しています。
要約(オリジナル)
Recent advancements in Natural Language Processing (NLP) have facilitated the analysis of student-generated language products in learning analytics (LA), particularly through the use of NLP embedding models. Yet when it comes to science-related language, symbolic expressions such as equations and formulas introduce challenges that current embedding models struggle to address. Existing studies and applications often either overlook these challenges or remove symbolic expressions altogether, potentially leading to biased findings and diminished performance of LA applications. This study therefore explores how contemporary embedding models differ in their capability to process and interpret science-related symbolic expressions. To this end, various embedding models are evaluated using physics-specific symbolic expressions drawn from authentic student responses, with performance assessed via two approaches: similarity-based analyses and integration into a machine learning pipeline. Our findings reveal significant differences in model performance, with OpenAI’s GPT-text-embedding-3-large outperforming all other examined models, though its advantage over other models was moderate rather than decisive. Beyond performance, additional factors such as cost, regulatory compliance, and model transparency are discussed as key considerations for model selection. Overall, this study underscores the importance for LA researchers and practitioners of carefully selecting NLP embedding models when working with science-related language products that include symbolic expressions.
arxiv情報
著者 | Tom Bleckmann,Paul Tschisgale |
発行日 | 2025-05-23 14:26:33+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google