Spontaneous Giving and Calculated Greed in Language Models

要約

大規模な言語モデルは、考え方の促しや反射などの推論技術を通じて強い問題解決能力を示しています。
ただし、これらの推論能力が社会的知性の形態にまで及ぶかどうかは不明のままです。協同組合の文脈で効果的な決定を下します。
私たちは、社会的ジレンマをシミュレートする経済的ゲームを使用してこの質問を調べます。
まず、公共財のゲームでGPT-4oにチェーンとリフレクションのプロンプトを適用します。
次に、6つの協力と罰ゲームにわたって複数の既製のモデルを評価し、明示的な推論メカニズムの有無にかかわらず比較します。
推論モデルは一貫して協力と規範の執行を減らし、個々の合理性を支持することがわかります。
繰り返しの相互作用では、より多くの推論エージェントを持つグループは、より低い集合的利益を示します。
これらの行動は、「自発的な与え、計算された貪欲」の人間のパターンを反映しています。
私たちの調査結果は、社会的知性を推論とともに組み込んだLLMアーキテクチャの必要性を強調しており、集団行動の課題に対処するのに役立ちます。

要約(オリジナル)

Large language models demonstrate strong problem-solving abilities through reasoning techniques such as chain-of-thought prompting and reflection. However, it remains unclear whether these reasoning capabilities extend to a form of social intelligence: making effective decisions in cooperative contexts. We examine this question using economic games that simulate social dilemmas. First, we apply chain-of-thought and reflection prompting to GPT-4o in a Public Goods Game. We then evaluate multiple off-the-shelf models across six cooperation and punishment games, comparing those with and without explicit reasoning mechanisms. We find that reasoning models consistently reduce cooperation and norm enforcement, favoring individual rationality. In repeated interactions, groups with more reasoning agents exhibit lower collective gains. These behaviors mirror human patterns of ‘spontaneous giving and calculated greed.’ Our findings underscore the need for LLM architectures that incorporate social intelligence alongside reasoning, to help address–rather than reinforce–the challenges of collective action.

arxiv情報

著者 Yuxuan Li,Hirokazu Shirado
発行日 2025-05-21 16:04:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク