要約
引用の実践は科学的知識の構造を形成する上で極めて重要ですが、現代の規範や偏見の影響を受けることがよくあります。
GPT-4 のような大規模言語モデル (LLM) の出現により、これらの実践に新しい力学が導入されました。
興味深いことに、検索や検索拡張生成ではなくパラメトリック知識に完全に依存する LLM によって推奨される参照の特性と潜在的なバイアスは、未調査のままです。
ここでは、GPT-4 の知識終了日以降に公開され、合計 3,066 件の参考文献を含む、AAAI、NeurIPS、ICML、および ICLR の 166 件の論文のデータセットを使用した実験で、これらの特性を分析します。
私たちの実験では、GPT-4 は、これらの論文内の匿名化された本文引用の学術参考文献を提案するという任務を負っていました。
私たちの発見は、人間とLLMの引用パターンの間に顕著な類似性があることを明らかにしましたが、GPT-4ではより顕著な高い引用バイアスがあり、出版年、タイトルの長さ、著者の数、会場を制御した後でもそれは持続します。
さらに、GPT-4 の既存の生成された参照と存在しない生成された参照の特性の間に大きな一貫性が観察され、モデルによる引用パターンの内部化が示されています。
引用グラフを分析することで、GPT-4 によって推奨される参考文献が関連する引用コンテキストに埋め込まれていることを示し、引用ネットワークのさらに深い概念的な内部化を示唆しています。
LLM は引用の生成に役立ちますが、既存のバイアスを増幅したり、新しいバイアスを導入したりする可能性もあり、科学知識の普及を歪める可能性があります。
私たちの結果は、モデルのバイアスを特定し、LLM と相互作用するためのバランスのとれた方法を開発する必要性を強調しています。
要約(オリジナル)
Citation practices are crucial in shaping the structure of scientific knowledge, yet they are often influenced by contemporary norms and biases. The emergence of Large Language Models (LLMs) like GPT-4 introduces a new dynamic to these practices. Interestingly, the characteristics and potential biases of references recommended by LLMs that entirely rely on their parametric knowledge, and not on search or retrieval-augmented generation, remain unexplored. Here, we analyze these characteristics in an experiment using a dataset of 166 papers from AAAI, NeurIPS, ICML, and ICLR, published after GPT-4’s knowledge cut-off date, encompassing 3,066 references in total. In our experiment, GPT-4 was tasked with suggesting scholarly references for the anonymized in-text citations within these papers. Our findings reveal a remarkable similarity between human and LLM citation patterns, but with a more pronounced high citation bias in GPT-4, which persists even after controlling for publication year, title length, number of authors, and venue. Additionally, we observe a large consistency between the characteristics of GPT-4’s existing and non-existent generated references, indicating the model’s internalization of citation patterns. By analyzing citation graphs, we show that the references recommended by GPT-4 are embedded in the relevant citation context, suggesting an even deeper conceptual internalization of the citation networks. While LLMs can aid in citation generation, they may also amplify existing biases and introduce new ones, potentially skewing scientific knowledge dissemination. Our results underscore the need for identifying the model’s biases and for developing balanced methods to interact with LLMs in general.
arxiv情報
著者 | Andres Algaba,Carmen Mazijn,Vincent Holst,Floriano Tori,Sylvia Wenmackers,Vincent Ginis |
発行日 | 2024-05-24 17:34:32+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google