Advancing AI-Scientist Understanding: Making LLM Think Like a Physicist with Interpretable Reasoning

要約

大規模な言語モデル(LLM)は、推論、象徴的操作、および数値計算を強化することにより、物理学研究で拡大する役割を果たしています。
ただし、出力の信頼性と解釈可能性を確保することは、依然として重要な課題です。
私たちのフレームワークでは、AIと人間の科学者とのコラボレーションを、推論モジュール、解釈モジュール、およびAIシエンティストインタラクションモジュールの3つのモジュール間の動的な相互作用として概念化します。
効果的な物理学の推論には、厳密な論理的一貫性、定量的精度、確立された理論モデルとの深い統合が必要であることを認識して、解釈モジュールを導入して、以前は文献では調査されていなかったAI生成出力の理解を改善します。
このモジュールは、より解釈可能な科学モデルを構築することにより、物理的に接地されたフレームワーク内でLLM出力を共同で構成する、要約者、モデルビルダー、UIビルダー、テスターを含む複数の専門的なエージェントで構成されています。
ケーススタディでは、私たちのアプローチが透明性を高め、検証を促進し、科学的発見におけるAIの高等推論を強化することを示しています。

要約(オリジナル)

Large Language Models (LLMs) are playing an expanding role in physics research by enhancing reasoning, symbolic manipulation, and numerical computation. However, ensuring the reliability and interpretability of their outputs remains a significant challenge. In our framework, we conceptualize the collaboration between AI and human scientists as a dynamic interplay among three modules: the reasoning module, the interpretation module, and the AI-scientist interaction module. Recognizing that effective physics reasoning demands rigorous logical consistency, quantitative precision, and deep integration with established theoretical models, we introduce the interpretation module to improve the understanding of AI-generated outputs, which is not previously explored in the literature. This module comprises multiple specialized agents, including summarizers, model builders, UI builders, and testers, which collaboratively structure LLM outputs within a physically grounded framework, by constructing a more interpretable science model. A case study demonstrates that our approach enhances transparency, facilitates validation, and strengthens AI-augmented reasoning in scientific discovery.

arxiv情報

著者 Yinggan Xu,Hana Kimlee,Yijia Xiao,Di Luo
発行日 2025-04-02 17:13:16+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.HC パーマリンク