Spontaneous Giving and Calculated Greed in Language Models

要約

大規模な言語モデルは、思考の連鎖や内省といった推論技術を取り入れることで、高度な問題解決能力を示している。しかし、これらの推論能力が社会的知性にどのように拡張されるかは不明なままである。本研究では、社会的知性が重要な役割を果たす社会的ジレンマをモデル化した経済ゲームを用いて、この疑問を調査する。まず、公共財ゲームにおいて、思考の連鎖と内省技術の効果を検証する。次に、協力と罰に関する6つの経済ゲームに分析を拡張し、市販の非推論モデルと推論モデルを比較する。その結果、推論モデルは個人の合理性を優先し、協力と規範の履行を著しく減少させることがわかった。その結果、より多くの推論モデルを持つグループは、より少ない協力と、繰り返される相互作用によるより低い利益を示す。これらの行動は、「自発的な贈与と計算された貪欲」という人間の傾向と類似している。我々の結果は、AIが人間の協力的直感を破壊するのではなく、むしろサポートすることを保証するために、推論能力と並行して社会的知性を組み込んだAIアーキテクチャの必要性を示唆している。

要約(オリジナル)

Large language models demonstrate advanced problem-solving capabilities by incorporating reasoning techniques such as chain of thought and reflection. However, how these reasoning capabilities extend to social intelligence remains unclear. In this study, we investigate this question using economic games that model social dilemmas, where social intelligence plays a crucial role. First, we examine the effects of chain-of-thought and reflection techniques in a public goods game. We then extend our analysis to six economic games on cooperation and punishment, comparing off-the-shelf non-reasoning and reasoning models. We find that reasoning models significantly reduce cooperation and norm enforcement, prioritizing individual rationality. Consequently, groups with more reasoning models exhibit less cooperation and lower gains through repeated interactions. These behaviors parallel human tendencies of ‘spontaneous giving and calculated greed.’ Our results suggest the need for AI architectures that incorporate social intelligence alongside reasoning capabilities to ensure that AI supports, rather than disrupts, human cooperative intuition.

arxiv情報

著者 Yuxuan Li,Hirokazu Shirado
発行日 2025-03-03 04:31:48+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク