要約
\label{sec:abstract} 大規模言語モデル (LLM) は、科学的発見を支援するのに有望であることが示されています。
しかし、複雑な科学概念の理解、記号方程式の導出、および高度な数値計算の解決における LLM の欠陥により、そのようなアプリケーションは現在限定されています。
これらのギャップを埋めるために、大学レベルの科学的推論を実行できる科学言語モデルのスイートである SciGLM を紹介します。
私たちのアプローチの中心となるのは、科学分野におけるデータ不足の課題に対処するための、新しい内省的な命令アノテーション フレームワークです。
このフレームワークは、既存の LLM を活用して、ラベルのない科学的疑問に対する段階的な推論を生成し、その後、内省的な批評と修正のプロセスを実行します。
このフレームワークを適用して、数学、物理学、化学、形式的証明を含む多様で高品質のデータセットである SciInstruct を厳選しました。
ChatGLM ファミリの言語モデルを SciInstruct で微調整し、科学的および数学的推論の機能を強化しました。
注目すべきことに、SciGLM は、基本モデルの言語理解機能を犠牲にすることなく、基本モデル (ChatGLM3-6B-Base) と大規模モデル (12B および 32B) の両方を一貫して改善しています。
これにより、SciGLM は、多様な科学的発見タスクを促進するのに適した基礎モデルになります。
より広範な研究コミュニティの利益のために、私たちは自己反省フレームワークと微調整コードとともに SciInstruct、SciGLM を \url{https://github.com/THUDM/SciGLM} でリリースします。
要約(オリジナル)
\label{sec:abstract} Large Language Models (LLMs) have shown promise in assisting scientific discovery. However, such applications are currently limited by LLMs’ deficiencies in understanding intricate scientific concepts, deriving symbolic equations, and solving advanced numerical calculations. To bridge these gaps, we introduce SciGLM, a suite of scientific language models able to conduct college-level scientific reasoning. Central to our approach is a novel self-reflective instruction annotation framework to address the data scarcity challenge in the science domain. This framework leverages existing LLMs to generate step-by-step reasoning for unlabelled scientific questions, followed by a process of self-reflective critic-and-revise. Applying this framework, we curated SciInstruct, a diverse and high-quality dataset encompassing mathematics, physics, chemistry, and formal proofs. We fine-tuned the ChatGLM family of language models with SciInstruct, enhancing their capabilities in scientific and mathematical reasoning. Remarkably, SciGLM consistently improves both the base model (ChatGLM3-6B-Base) and larger-scale models (12B and 32B), without sacrificing the language understanding capabilities of the base model. This makes SciGLM a suitable foundational model to facilitate diverse scientific discovery tasks. For the benefit of the wider research community, we release SciInstruct, SciGLM, alongside a self-reflective framework and fine-tuning code at \url{https://github.com/THUDM/SciGLM}.
arxiv情報
著者 | Dan Zhang,Ziniu Hu,Sining Zhoubian,Zhengxiao Du,Kaiyu Yang,Zihan Wang,Yisong Yue,Yuxiao Dong,Jie Tang |
発行日 | 2024-01-15 20:22:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google