End-to-End Bangla AI for Solving Math Olympiad Problem Benchmark: Leveraging Large Language Model Using Integrated Approach

要約

この研究では、バングラ AI の数学的課題に対処するために大規模言語モデル (LLM) を強化するための体系的なアプローチを紹介します。
多様な LLM 構成の評価、特定のデータセットによる微調整、検索拡張生成 (RAG) の実装を通じて、多言語環境におけるモデルの推論精度が向上しました。
重要な発見は、カスタマイズされたプロンプト、データセットの拡張、および反復推論により、オリンピックレベルの数学的課題に関するモデルの効率が向上することを示しています。

要約(オリジナル)

This work introduces systematic approach for enhancing large language models (LLMs) to address Bangla AI mathematical challenges. Through the assessment of diverse LLM configurations, fine-tuning with specific datasets, and the implementation of Retrieval-Augmented Generation (RAG), we enhanced the model’s reasoning precision in a multilingual setting. Crucial discoveries indicate that customized prompting, dataset augmentation, and iterative reasoning improve the model’s efficiency regarding Olympiad-level mathematical challenges.

arxiv情報

著者 H. M. Shadman Tabib,Jaber Ahmed Deedar
発行日 2025-01-08 11:18:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク