要約
大規模な言語モデル(LLMS)は、1対1の相互作用において重要な説得力のある能力を示していますが、相互接続されたユーザーと複雑な意見のダイナミクスがユニークな課題をもたらすソーシャルネットワーク内での影響は依存していないままです。
このペーパーでは、研究の質問に対処します。
このアプローチは、ライブ実験の時間的コストと複雑さをバイパッシングし、LLMと調査中のネットワークの間の効率的なフィードバックループを可能にします。
また、ソーシャルネットワーク内のLLMの位置や、特定のトピックに関する意見の分布などの内生的要因を制御することもできます。
私たちのアプローチは、基礎となるネットワークの意見分布に適応し、プラグアンドプレイコンポーネントとして埋め込まれているエンゲージメントモデルの詳細には不可知論です。
このような柔軟性により、計算社会科学のより複雑なエンゲージメントタスクや介入に適しています。
フレームワークを使用して、さまざまな条件下でソーシャルエンゲージメントを生成するLLMSのパフォーマンスを分析し、このタスクでの潜在能力を最大限に示します。
実験コードは、https://github.com/mminici/engagement-driven-content-generationで公開されています。
要約(オリジナル)
Large Language Models (LLMs) demonstrate significant persuasive capabilities in one-on-one interactions, but their influence within social networks, where interconnected users and complex opinion dynamics pose unique challenges, remains underexplored. This paper addresses the research question: \emph{Can LLMs generate meaningful content that maximizes user engagement on social networks?} To answer this, we propose a pipeline using reinforcement learning with simulated feedback, where the network’s response to LLM-generated content (i.e., the reward) is simulated through a formal engagement model. This approach bypasses the temporal cost and complexity of live experiments, enabling an efficient feedback loop between the LLM and the network under study. It also allows to control over endogenous factors such as the LLM’s position within the social network and the distribution of opinions on a given topic. Our approach is adaptive to the opinion distribution of the underlying network and agnostic to the specifics of the engagement model, which is embedded as a plug-and-play component. Such flexibility makes it suitable for more complex engagement tasks and interventions in computational social science. Using our framework, we analyze the performance of LLMs in generating social engagement under different conditions, showcasing their full potential in this task. The experimental code is publicly available at https://github.com/mminici/Engagement-Driven-Content-Generation.
arxiv情報
著者 | Erica Coppolillo,Federico Cinus,Marco Minici,Francesco Bonchi,Giuseppe Manco |
発行日 | 2025-06-04 16:02:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google