Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective

要約

大規模言語モデル(LLM)を利用したエージェントシステムは、ますます複雑で高性能になってきている。LLMのエージェンシー性はますます高まり、導入環境も拡大しているため、効果的なガバナンスポリシー、モニタリング、制御プロトコルに注目が集まっている。エージェント市場の新たな景観に基づき、プリンシパル・エージェントの観点から、LLMエージェントとその拡張システムの委任利用から生じる潜在的な責任問題を分析する。我々の分析は、人工エージェンシーに関する既存のリスクベースの研究を補完するものであり、プリンシパルとエージェントの関係の重要な側面と、その展開における潜在的な結果のスペクトルをカバーするものである。さらに、解釈可能性と行動評価、報酬と紛争管理、検知とフェイルセーフ機構の原理的工学を通したミスアラインメントと不正行為の緩和という方向性に沿って、技術的ガバナンスのための手法開発の動機付けを行う。LLMベースのエージェントシステムのAI責任における未解決の問題を説明することにより、透明性と説明責任を強化するためのシステム設計、監査、監視のアプローチに情報を提供することを目指す。

要約(オリジナル)

Agentic systems powered by large language models (LLMs) are becoming progressively more complex and capable. Their increasing agency and expanding deployment settings attract growing attention over effective governance policies, monitoring and control protocols. Based on emerging landscapes of the agentic market, we analyze the potential liability issues stemming from delegated use of LLM agents and their extended systems from a principal-agent perspective. Our analysis complements existing risk-based studies on artificial agency and covers the spectrum of important aspects of the principal-agent relationship and their potential consequences at deployment. Furthermore, we motivate method developments for technical governance along the directions of interpretability and behavior evaluations, reward and conflict management, and the mitigation of misalignment and misconduct through principled engineering of detection and fail-safe mechanisms. By illustrating the outstanding issues in AI liability for LLM-based agentic systems, we aim to inform the system design, auditing and monitoring approaches to enhancing transparency and accountability.

arxiv情報

著者 Garry A. Gabison,R. Patrick Xian
発行日 2025-04-04 08:10:02+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.CY, cs.MA パーマリンク