OceanGPT: A Large Language Model for Ocean Science Tasks

要約

生命と生物多様性の貯蔵庫である海洋を掘り下げる海洋科学は、地球表面の70%以上を海洋が占めていることを考えると、大きな意義がある。近年、大規模言語モデル(LLM)の進歩により、科学のパラダイムが大きく変わりつつある。他の領域での成功にもかかわらず、現在のLLMは海洋学者のような領域専門家のニーズに応えるには不十分であることが多く、海洋科学におけるLLMの可能性は十分に検討されていない。その本質的な理由は、海洋データの巨大で複雑な性質と、より高い粒度と豊富な知識を必要とすることであろう。このような問題を解決するために、我々は海洋科学の様々なタスクに精通した海洋領域初のLLMであるOceanGPTを紹介する。また、海洋領域における大量の指示データを自動的に取得するための新しいフレームワークであるDoInstructを提案し、マルチエージェントの連携に基づいて指示を生成する。さらに、海洋領域におけるLLMの能力を評価するために、初の海洋学ベンチマークであるOceanBenchを構築する。包括的な実験により、OceanGPTは海洋科学タスクに対するより高度な知識専門性を示すだけでなく、海洋技術における予備的な具現化知能能力を獲得した。コード、データ、チェックポイントは間もなくhttps://github.com/zjunlp/KnowLM。

要約(オリジナル)

Ocean science, which delves into the oceans that are reservoirs of life and biodiversity, is of great significance given that oceans cover over 70% of our planet’s surface. Recently, advances in Large Language Models (LLMs) have transformed the paradigm in science. Despite the success in other domains, current LLMs often fall short in catering to the needs of domain experts like oceanographers, and the potential of LLMs for ocean science is under-explored. The intrinsic reason may be the immense and intricate nature of ocean data as well as the necessity for higher granularity and richness in knowledge. To alleviate these issues, we introduce OceanGPT, the first-ever LLM in the ocean domain, which is expert in various ocean science tasks. We propose DoInstruct, a novel framework to automatically obtain a large volume of ocean domain instruction data, which generates instructions based on multi-agent collaboration. Additionally, we construct the first oceanography benchmark, OceanBench, to evaluate the capabilities of LLMs in the ocean domain. Though comprehensive experiments, OceanGPT not only shows a higher level of knowledge expertise for oceans science tasks but also gains preliminary embodied intelligence capabilities in ocean technology. Codes, data and checkpoints will soon be available at https://github.com/zjunlp/KnowLM.

arxiv情報

著者 Zhen Bi,Ningyu Zhang,Yida Xue,Yixin Ou,Guozhou Zheng,Huajun Chen
発行日 2023-10-03 13:17:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG, cs.RO パーマリンク