MatterChat: A Multi-Modal LLM for Material Science

要約

無機材料の特性を理解し、予測することは、材料科学の進歩を加速し、エネルギー、電子機器、およびそれ以降の応用を促進するために重要です。
マルチモーダルの大手言語モデル(LLMS)を介した材料構造データと言語ベースの情報を統合することで、人間との相互作用を強化することにより、これらの努力をサポートする大きな可能性があります。
ただし、重要な課題は、Atomic構造をフル解像度でLLMSに統合することにあります。
この作業では、材料の構造データとテキスト入力を単一の凝集モデルに統一する多目的な構造認識マルチモーダルLLMであるMatterChatを紹介します。
MatterChatは、ブリッジングモジュールを使用して、前処理された機械学習間の可能性を優先LLMと効果的に整列させ、トレーニングコストを削減し、柔軟性を向上させます。
我々の結果は、MatterChatがGPT-4などの汎用LLMを超えて、物質的な財産予測と人間との相互作用のパフォーマンスを大幅に改善することを示しています。
また、より高度な科学的推論や段階的な材料合成などのアプリケーションでの有用性を示しています。

要約(オリジナル)

Understanding and predicting the properties of inorganic materials is crucial for accelerating advancements in materials science and driving applications in energy, electronics, and beyond. Integrating material structure data with language-based information through multi-modal large language models (LLMs) offers great potential to support these efforts by enhancing human-AI interaction. However, a key challenge lies in integrating atomic structures at full resolution into LLMs. In this work, we introduce MatterChat, a versatile structure-aware multi-modal LLM that unifies material structural data and textual inputs into a single cohesive model. MatterChat employs a bridging module to effectively align a pretrained machine learning interatomic potential with a pretrained LLM, reducing training costs and enhancing flexibility. Our results demonstrate that MatterChat significantly improves performance in material property prediction and human-AI interaction, surpassing general-purpose LLMs such as GPT-4. We also demonstrate its usefulness in applications such as more advanced scientific reasoning and step-by-step material synthesis.

arxiv情報

著者 Yingheng Tang,Wenbin Xu,Jie Cao,Jianzhu Ma,Weilu Gao,Steve Farrell,Benjamin Erichson,Michael W. Mahoney,Andy Nonaka,Zhi Yao
発行日 2025-02-18 18:19:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.LG パーマリンク