Can AI Put Gamma-Ray Astrophysicists Out of a Job?

要約

【タイトル】AIによってガンマ線天文学者の仕事はなくなるのか?

【要約】4月1日を祝うジェネレーティブモデルを扱ったarXivの投稿の中で、我々は最新のトランスフォーマーモデルが、存在しないImaging Atmospheric Cherenkov Telescope (IACT)アレイでのパルサー・ウィンド・ネブラの検出に関する論文を作成できる能力を評価する。このようにモデルが言語情報だけを元に天文観測と天体の解釈ができるかどうかを評価し、偽造された科学論文が査読中に特定される可能性がある手段を評価する。我々は、信頼性の高いジェネレーティブモデルによる透かしをまだ使用できていないため、これらのツールで識別する可能性があると結論づけた。我々は、現時点では、天文学者の仕事は安全であると結論づけた。その後、ChatGPTとStable Diffusionで提示されたプロンプトはオレンジ色で、ChatGPTによって生成されたテキストは黒色で、解釈は青色で示される。

【要点】

– トランスフォーマーモデルが天文観測と天体の解釈を言語情報だけで行える能力を評価するため、Imaging Atmospheric Cherenkov Telescope (IACT)アレイでのパルサー・ウィンド・ネブラの検出に関する論文を生成した。
– 可能な偽造された科学論文が査読中に特定される手段を評価するために、信頼性の高いジェネレーティブモデルによる透かしをまだ使用できていないことが示唆された。
– 現時点では、天文学者の仕事は安全であり、人間による解釈が必要な仕事であることが示された。

要約(オリジナル)

In what will likely be a litany of generative-model-themed arXiv submissions celebrating April the 1st, we evaluate the capacity of state-of-the-art transformer models to create a paper detailing the detection of a Pulsar Wind Nebula with a non-existent Imaging Atmospheric Cherenkov Telescope (IACT) Array. We do this to evaluate the ability of such models to interpret astronomical observations and sources based on language information alone, and to assess potential means by which fraudulently generated scientific papers could be identified during peer review (given that reliable generative model watermarking has yet to be deployed for these tools). We conclude that our jobs as astronomers are safe for the time being. From this point on, prompts given to ChatGPT and Stable Diffusion are shown in orange, text generated by ChatGPT is shown in black, whereas analysis by the (human) authors is in blue.

arxiv情報

著者 Samuel T. Spencer,Vikas Joshi,Alison M. W. Mitchell
発行日 2023-04-04 09:30:55+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, OpenAI

カテゴリー: astro-ph.HE, cs.CL, physics.pop-ph パーマリンク