要約
この研究では、バングラ AI の数学的課題に対処するために大規模言語モデル (LLM) を強化するための体系的なアプローチを紹介します。
多様な LLM 構成の評価、特定のデータセットによる微調整、検索拡張生成 (RAG) の実装を通じて、多言語環境におけるモデルの推論精度が向上しました。
重要な発見は、カスタマイズされたプロンプト、データセットの拡張、および反復推論により、オリンピックレベルの数学的課題に関するモデルの効率が向上することを示しています。
要約(オリジナル)
This work introduces systematic approach for enhancing large language models (LLMs) to address Bangla AI mathematical challenges. Through the assessment of diverse LLM configurations, fine-tuning with specific datasets, and the implementation of Retrieval-Augmented Generation (RAG), we enhanced the model’s reasoning precision in a multilingual setting. Crucial discoveries indicate that customized prompting, dataset augmentation, and iterative reasoning improve the model’s efficiency regarding Olympiad-level mathematical challenges.
arxiv情報
著者 | H. M. Shadman Tabib,Jaber Ahmed Deedar |
発行日 | 2025-01-08 11:18:36+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google