Gaussian mixture models as a proxy for interacting language models

要約

大規模言語モデル(LLM)は、多くの場面で人間の能力や行動と一致する能力を持つ強力なツールである。検索補強型生成(RAG)はさらに、LLMがRAGデータベースの内容に応じて多様な出力を生成することを可能にする。このことは、大規模な実験が不可能な場合に、個人間の人間の行動を研究するための社会科学におけるLLMの使用を動機づける。しかし、LLMは複雑で計算コストの高いアルゴリズムに依存している。本論文では、LLMを用いた類似のフレームワークの代替として、相互作用ガウス混合モデル(GMM)を導入する。GMMの単純化モデルと、更新と応答が他のLLMからのフィードバックに依存するLLMの選択的実験シミュレーションを比較する。我々は、相互作用するGMMが、相互作用するLLMのダイナミクスの重要な特徴を捉えていることを発見し、相互作用するLLMとGMMの主要な類似点と相違点を調査した。最後に、ガウス混合モデルの利点、潜在的な修正、および今後の研究の方向性について議論する。

要約(オリジナル)

Large language models (LLMs) are a powerful tool with the ability to match human capabilities and behavior in many settings. Retrieval-augmented generation (RAG) further allows LLMs to generate diverse output depending on the contents of their RAG database. This motivates their use in the social sciences to study human behavior between individuals when large-scale experiments are infeasible. However, LLMs depend on complex, computationally expensive algorithms. In this paper, we introduce interacting Gaussian mixture models (GMMs) as an alternative to similar frameworks using LLMs. We compare a simplified model of GMMs to select experimental simulations of LLMs whose updating and response depend on feedback from other LLMs. We find that interacting GMMs capture important features of the dynamics in interacting LLMs, and we investigate key similarities and differences between interacting LLMs and GMMs. We conclude by discussing the benefits of Gaussian mixture models, potential modifications, and future research directions.

arxiv情報

著者 Edward L. Wang,Tianyu Wang,Avanti Athreya,Vince Lyzinski,Carey E. Priebe
発行日 2025-06-03 16:01:41+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: 62R07, cs.CL, cs.LG, stat.ML パーマリンク