要約
人間の意見のダイナミクスを正確にシミュレートすることは、二極化や誤った情報の拡散など、さまざまな社会現象を理解するために非常に重要です。
ただし、このようなシミュレーションに一般的に使用されるエージェントベース モデル (ABM) は、人間の行動を過度に単純化することがよくあります。
私たちは、大規模言語モデル (LLM) の母集団に基づいて意見のダイナミクスをシミュレートする新しいアプローチを提案します。
私たちの調査結果は、正確な情報を生成することに対するLLMエージェントの固有の強いバイアスを明らかにし、シミュレートされたエージェントを科学的現実に沿ったコンセンサスに導きます。
このバイアスにより、気候変動などの問題に関するコンセンサス見解に対する抵抗を理解する上での有用性が制限されます。
しかし、プロンプトエンジニアリングによって確証バイアスを誘発した後、既存のエージェントベースのモデリングと意見力学の研究に沿って意見の断片化が観察されました。
これらの洞察は、この領域における LLM エージェントの可能性と限界を浮き彫りにし、人間の信念の進化をより適切にシミュレートするために、現実世界の言説を使用して LLM を洗練するという今後の道を示唆しています。
要約(オリジナル)
Accurately simulating human opinion dynamics is crucial for understanding a variety of societal phenomena, including polarization and the spread of misinformation. However, the agent-based models (ABMs) commonly used for such simulations often over-simplify human behavior. We propose a new approach to simulating opinion dynamics based on populations of Large Language Models (LLMs). Our findings reveal a strong inherent bias in LLM agents towards producing accurate information, leading simulated agents to consensus in line with scientific reality. This bias limits their utility for understanding resistance to consensus views on issues like climate change. After inducing confirmation bias through prompt engineering, however, we observed opinion fragmentation in line with existing agent-based modeling and opinion dynamics research. These insights highlight the promise and limitations of LLM agents in this domain and suggest a path forward: refining LLMs with real-world discourse to better simulate the evolution of human beliefs.
arxiv情報
著者 | Yun-Shiuan Chuang,Agam Goyal,Nikunj Harlalka,Siddharth Suresh,Robert Hawkins,Sijia Yang,Dhavan Shah,Junjie Hu,Timothy T. Rogers |
発行日 | 2024-02-16 16:25:48+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google