要約
この研究は、天文学における大規模言語モデル (LLM)、特に GPT-4 の応用を調査します。
私たちは、コンテキスト内プロンプトを採用し、NASA 天体物理データ システムから最大 1,000 件の論文をモデルに提供し、モデルを分野固有の文献に浸すことでパフォーマンスがどの程度改善できるかを調査します。
私たちの調査結果は、コンテキスト内のプロンプトを使用すると仮説生成が大幅に向上することを示しており、その利点は敵対的なプロンプトによってさらに強調されます。
私たちは、敵対的プロンプトによって GPT-4 が膨大な知識ベースから重要な詳細を抽出して意味のある仮説を生成し、天文学の科学研究に LLM を採用する革新的な一歩を示す方法を示します。
要約(オリジナル)
This study investigates the application of Large Language Models (LLMs), specifically GPT-4, within Astronomy. We employ in-context prompting, supplying the model with up to 1000 papers from the NASA Astrophysics Data System, to explore the extent to which performance can be improved by immersing the model in domain-specific literature. Our findings point towards a substantial boost in hypothesis generation when using in-context prompting, a benefit that is further accentuated by adversarial prompting. We illustrate how adversarial prompting empowers GPT-4 to extract essential details from a vast knowledge base to produce meaningful hypotheses, signaling an innovative step towards employing LLMs for scientific research in Astronomy.
arxiv情報
著者 | Ioana Ciucă,Yuan-Sen Ting,Sandor Kruk,Kartheik Iyer |
発行日 | 2023-06-20 16:16:56+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google