PLLaMa: An Open-source Large Language Model for Plant Science

要約

大規模言語モデル(LLM)は、様々な分野において、自然言語の理解と対話において顕著な能力を発揮してきた。しかし、植物科学のような高い精度が要求される専門分野では、その有効性は限定的である。本稿では、LLaMa-2から発展したオープンソースの言語モデルPLLaMaを紹介する。PLLaMaは、植物科学に関する150万以上の学術論文からなる包括的なデータベースによって強化されている。この開発により、PLLaMaは植物科学と農業科学における広範な知識と熟練度を大幅に強化された。植物と農業に関連する特定のデータセットを含む最初のテストでは、PLLaMaが植物科学関連のトピックの理解を大幅に向上させることが示されました。さらに私たちは、植物科学者、農業エンジニア、植物育種家を含む国際的な専門家パネルを結成しました。このチームは、様々な学術的な問い合わせに対するPLLaMaの回答の正確性を検証する上で重要な役割を果たしており、現場での効果的で信頼性の高い応用を保証しています。さらなる研究開発を支援するため、私たちはモデルのチェックポイントとソースコードを科学コミュニティに公開しました。これらのリソースは⽋⽋https://github.com/Xianjun-Yang/PLLaMa}からダウンロードできます。

要約(オリジナル)

Large Language Models (LLMs) have exhibited remarkable capabilities in understanding and interacting with natural language across various sectors. However, their effectiveness is limited in specialized areas requiring high accuracy, such as plant science, due to a lack of specific expertise in these fields. This paper introduces PLLaMa, an open-source language model that evolved from LLaMa-2. It’s enhanced with a comprehensive database, comprising more than 1.5 million scholarly articles in plant science. This development significantly enriches PLLaMa with extensive knowledge and proficiency in plant and agricultural sciences. Our initial tests, involving specific datasets related to plants and agriculture, show that PLLaMa substantially improves its understanding of plant science-related topics. Moreover, we have formed an international panel of professionals, including plant scientists, agricultural engineers, and plant breeders. This team plays a crucial role in verifying the accuracy of PLLaMa’s responses to various academic inquiries, ensuring its effective and reliable application in the field. To support further research and development, we have made the model’s checkpoints and source codes accessible to the scientific community. These resources are available for download at \url{https://github.com/Xianjun-Yang/PLLaMa}.

arxiv情報

著者 Xianjun Yang,Junfeng Gao,Wenxin Xue,Erik Alexandersson
発行日 2024-01-03 08:06:26+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG パーマリンク