要約
信頼できるAIシステムの採用を促進するためには、AI開発エコシステム内で信頼と協力を促進することが不可欠であるという一般的な合意があります。
進化のゲーム理論的フレームワークに大規模な言語モデル(LLM)エージェントを埋め込むことにより、このペーパーでは、AI開発者、規制当局、ユーザー間の複雑な相互作用を調査し、さまざまな規制シナリオの下で戦略的選択をモデル化します。
進化的ゲーム理論(EGT)は、各俳優が直面するジレンマを定量的にモデル化するために使用され、LLMは追加の複雑さとニュアンスの程度を提供し、繰り返しゲームと性格特性の組み込みを可能にします。
私たちの研究は、純粋なゲーム理論エージェントよりも「悲観的」(信頼していない)スタンスを採用する傾向がある戦略的AIエージェントの新たな行動を特定しています。
ユーザーによる完全な信頼の場合、インセンティブは効果的な規制を促進するのに効果的であることがわかります。
ただし、条件付き信頼は「社会協定」を悪化させる可能性があります。
したがって、ユーザーの信頼と規制当局の評判の間に好意的なフィードバックを確立することは、安全なAIを作成するために開発者を微調整するための鍵であると思われます。
ただし、この信頼が出現するレベルは、テストに使用される特定のLLMに依存する可能性があります。
したがって、我々の結果は、AI規制システムのガイダンスを提供し、規制自体を支援するために使用される場合、戦略的LLMエージェントの結果を予測するのに役立ちます。
要約(オリジナル)
There is general agreement that fostering trust and cooperation within the AI development ecosystem is essential to promote the adoption of trustworthy AI systems. By embedding Large Language Model (LLM) agents within an evolutionary game-theoretic framework, this paper investigates the complex interplay between AI developers, regulators and users, modelling their strategic choices under different regulatory scenarios. Evolutionary game theory (EGT) is used to quantitatively model the dilemmas faced by each actor, and LLMs provide additional degrees of complexity and nuances and enable repeated games and incorporation of personality traits. Our research identifies emerging behaviours of strategic AI agents, which tend to adopt more ‘pessimistic’ (not trusting and defective) stances than pure game-theoretic agents. We observe that, in case of full trust by users, incentives are effective to promote effective regulation; however, conditional trust may deteriorate the ‘social pact’. Establishing a virtuous feedback between users’ trust and regulators’ reputation thus appears to be key to nudge developers towards creating safe AI. However, the level at which this trust emerges may depend on the specific LLM used for testing. Our results thus provide guidance for AI regulation systems, and help predict the outcome of strategic LLM agents, should they be used to aid regulation itself.
arxiv情報
著者 | Alessio Buscemi,Daniele Proverbio,Paolo Bova,Nataliya Balabanova,Adeela Bashir,Theodor Cimpeanu,Henrique Correia da Fonseca,Manh Hong Duong,Elias Fernandez Domingos,Antonio M. Fernandes,Marcus Krellner,Ndidi Bianca Ogbo,Simon T. Powers,Fernando P. Santos,Zia Ush Shamszaman,Zhao Song,Alessandro Di Stefano,The Anh Han |
発行日 | 2025-04-11 15:41:21+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google