Take Caution in Using LLMs as Human Surrogates: Scylla Ex Machina

要約

最近の研究では、大規模言語モデル (LLM) が、経済実験、調査、政治的議論において人間の行動と一致する、人間のような推論を示すことができることを示唆しています。
このため、社会科学研究において LLM を人間の代理またはシミュレーションとして使用できると多くの人が提案しています。
しかし、LLM は人間とは根本的に異なり、確率的なパターンに依存しており、人間の認知を形成する具体化された経験や生存目標がありません。
11-20 資金要求ゲームを使用して、LLM の推論の深さを評価します。
ほとんどすべての高度なアプローチでは、多くのモデルにわたって人間の行動分布を再現できません。
失敗の原因は多様で、入力言語、役割、安全保護に関連して予測できません。
これらの結果は、人間の行動を研究するために、またはサロゲートやシミュレーションとして LLM を使用する場合には注意を促すものです。

要約(オリジナル)

Recent studies suggest large language models (LLMs) can exhibit human-like reasoning, aligning with human behavior in economic experiments, surveys, and political discourse. This has led many to propose that LLMs can be used as surrogates or simulations for humans in social science research. However, LLMs differ fundamentally from humans, relying on probabilistic patterns, absent the embodied experiences or survival objectives that shape human cognition. We assess the reasoning depth of LLMs using the 11-20 money request game. Nearly all advanced approaches fail to replicate human behavior distributions across many models. Causes of failure are diverse and unpredictable, relating to input language, roles, and safeguarding. These results advise caution when using LLMs to study human behavior or as surrogates or simulations.

arxiv情報

著者 Yuan Gao,Dokyun Lee,Gordon Burtch,Sina Fazelpour
発行日 2025-01-23 17:05:40+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.HC, econ.GN, q-fin.EC パーマリンク