OceanGPT: A Large Language Model for Ocean Science Tasks

要約

生命と生物多様性の宝庫である海洋を詳しく調査する海洋科学は、海洋が地球の表面の 70% 以上を覆っていることを考えると、非常に重要です。
最近、大規模言語モデル (LLM) の進歩により、科学のパラダイムが変化しました。
他の分野では成功しているにもかかわらず、現在の LLM は海洋学者などの分野専門家のニーズを満たすには不十分であることが多く、海洋科学における LLM の可能性は十分に探求されていません。
本質的な理由は、海洋データの膨大かつ複雑な性質と、より高い粒度と豊富な知識の必要性である可能性があります。
これらの問題を軽減するために、さまざまな海洋科学タスクの専門家である海洋領域初の LLM である OceanGPT を導入します。
我々は、大量の海洋領域の指示データを自動的に取得し、マルチエージェントの連携に基づいて指示を生成する新しいフレームワークである DoInstruct を提案します。
さらに、海洋領域における LLM の機能を評価するために、最初の海洋学ベンチマークである OceanBench を構築します。
OceanGPT は包括的な実験ですが、海洋科学タスクに関するより高いレベルの専門知識を示すだけでなく、海洋技術における予備的な具体化されたインテリジェンス機能も獲得します。
コード、データ、チェックポイントは間もなく https://github.com/zjunlp/KnowLM で利用可能になります。

要約(オリジナル)

Ocean science, which delves into the oceans that are reservoirs of life and biodiversity, is of great significance given that oceans cover over 70% of our planet’s surface. Recently, advances in Large Language Models (LLMs) have transformed the paradigm in science. Despite the success in other domains, current LLMs often fall short in catering to the needs of domain experts like oceanographers, and the potential of LLMs for ocean science is under-explored. The intrinsic reason may be the immense and intricate nature of ocean data as well as the necessity for higher granularity and richness in knowledge. To alleviate these issues, we introduce OceanGPT, the first-ever LLM in the ocean domain, which is expert in various ocean science tasks. We propose DoInstruct, a novel framework to automatically obtain a large volume of ocean domain instruction data, which generates instructions based on multi-agent collaboration. Additionally, we construct the first oceanography benchmark, OceanBench, to evaluate the capabilities of LLMs in the ocean domain. Though comprehensive experiments, OceanGPT not only shows a higher level of knowledge expertise for oceans science tasks but also gains preliminary embodied intelligence capabilities in ocean technology. Codes, data and checkpoints will soon be available at https://github.com/zjunlp/KnowLM.

arxiv情報

著者 Zhen Bi,Ningyu Zhang,Yida Xue,Yixin Ou,Daxiong Ji,Guozhou Zheng,Huajun Chen
発行日 2023-10-19 15:25:32+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CE, cs.CL, cs.LG, cs.RO パーマリンク