Materials science in the era of large language models: a perspective

要約

大規模言語モデル (LLM) は、その優れた自然言語機能により大きな関心を集めています。LLM は、さまざまな新たなプロパティと組み合わせることで、複雑なコード生成から組み合わせ問題のヒューリスティックな発見に至るまで、ワークフローにおける多用途のツールになります。
この論文では、材料科学研究への応用可能性についての視点を提供し、さまざまなタスクや分野にわたるあいまいな要件を処理できる能力は、研究者を支援する強力なツールとなり得ることを意味すると主張します。
私たちは基本的な LLM 理論を定性的に検討し、それを文献内の関連する特性や技術と結び付けてから、タスクの自動化と大規模な知識抽出における LLM の使用法を実証する 2 つのケーススタディを提供します。
現在の開発段階では、LLM は新しい洞察をもたらす神託者としてではなく、ドメイン間の探索を加速して統合できる精力的な作業者として見られるべきだと私たちは主張します。
この文書が材料科学の研究者に、これらのツールを研究で活用するために必要な概念を理解してもらえることを願っています。

要約(オリジナル)

Large Language Models (LLMs) have garnered considerable interest due to their impressive natural language capabilities, which in conjunction with various emergent properties make them versatile tools in workflows ranging from complex code generation to heuristic finding for combinatorial problems. In this paper we offer a perspective on their applicability to materials science research, arguing their ability to handle ambiguous requirements across a range of tasks and disciplines mean they could be a powerful tool to aid researchers. We qualitatively examine basic LLM theory, connecting it to relevant properties and techniques in the literature before providing two case studies that demonstrate their use in task automation and knowledge extraction at-scale. At their current stage of development, we argue LLMs should be viewed less as oracles of novel insight, and more as tireless workers that can accelerate and unify exploration across domains. It is our hope that this paper can familiarise material science researchers with the concepts needed to leverage these tools in their own research.

arxiv情報

著者 Ge Lei,Ronan Docherty,Samuel J. Cooper
発行日 2024-03-11 17:34:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cond-mat.mtrl-sci, cs.CL パーマリンク