Are LLMs Ready for Real-World Materials Discovery?

要約

大規模言語モデル (LLM) は、材料科学の研究を加速する強力な言語処理ツールに刺激的な可能性をもたらします。
LLM は材料の理解と発見を加速する大きな可能性を秘めていますが、現時点では実用的な材料科学ツールとしては不十分です。
このポジションペーパーでは、材料科学におけるLLMの関連失敗例を示し、複雑で相互に関連した材料科学の知識の理解と推論に関連するLLMの現在の限界を明らかにします。
これらの欠点を考慮して、材料科学の知識と仮説生成、その後の仮説検証に基づいた材料科学 LLM (MatSci-LLM) を開発するためのフレームワークの概要を説明します。
パフォーマンスの高い MatSci-LLM を達成するための道は、さまざまな情報抽出の課題が残る科学文献をソースとした高品質でマルチモーダルなデータセットを構築することに大きくかかっています。
そのため、貴重な材料科学知識を取得する大規模でマルチモーダルなデータセットを構築するために克服する必要がある、材料科学情報抽出の重要な課題について説明します。
最後に、将来の MatSci-LLM を現実世界の材料発見に適用するためのロードマップを概説します。 1. 自動知識ベース生成。
2. 自動化されたインシリコ材料設計。
3. MatSci-LLM 統合自動運転材料研究所。

要約(オリジナル)

Large Language Models (LLMs) create exciting possibilities for powerful language processing tools to accelerate research in materials science. While LLMs have great potential to accelerate materials understanding and discovery, they currently fall short in being practical materials science tools. In this position paper, we show relevant failure cases of LLMs in materials science that reveal current limitations of LLMs related to comprehending and reasoning over complex, interconnected materials science knowledge. Given those shortcomings, we outline a framework for developing Materials Science LLMs (MatSci-LLMs) that are grounded in materials science knowledge and hypothesis generation followed by hypothesis testing. The path to attaining performant MatSci-LLMs rests in large part on building high-quality, multi-modal datasets sourced from scientific literature where various information extraction challenges persist. As such, we describe key materials science information extraction challenges which need to be overcome in order to build large-scale, multi-modal datasets that capture valuable materials science knowledge. Finally, we outline a roadmap for applying future MatSci-LLMs for real-world materials discovery via: 1. Automated Knowledge Base Generation; 2. Automated In-Silico Material Design; and 3. MatSci-LLM Integrated Self-Driving Materials Laboratories.

arxiv情報

著者 Santiago Miret,N M Anoop Krishnan
発行日 2024-09-25 11:43:59+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.AI, cs.CL, cs.LG パーマリンク