Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective

要約

大規模な言語モデル(LLMS)を搭載したエージェントシステムは、徐々に複雑で能力が高まっています。
機関の増加と展開設定の拡大により、効果的なガバナンスポリシー、監視、および制御プロトコルに注目が集まります。
エージェント市場の新たな状況に基づいて、LLMエージェントとその拡張されたシステムの委任された使用から生じる潜在的な責任の問題を、主要なエージェントの観点から分析します。
私たちの分析は、人工機関に関する既存のリスクベースの研究を補完し、主要な関係の重要な側面のスペクトルと、展開における潜在的な結果をカバーしています。
さらに、解釈可能性と行動評価の方向、報酬と紛争管理の方向に沿った技術ガバナンスの方法の開発、および検出および障害セーフメカニズムの原則的なエンジニアリングによる不整合と不正行為の緩和を動機付けます。
LLMベースのエージェントシステムのAI責任に関する未解決の問題を説明することにより、透明性と責任の帰属を強化するために、システムの設計、監査、およびトレースを通知することを目指しています。

要約(オリジナル)

Agentic systems powered by large language models (LLMs) are becoming progressively more complex and capable. Their increasing agency and expanding deployment settings attract growing attention to effective governance policies, monitoring, and control protocols. Based on the emerging landscape of the agentic market, we analyze potential liability issues arising from the delegated use of LLM agents and their extended systems through a principal-agent perspective. Our analysis complements existing risk-based studies on artificial agency and covers the spectrum of important aspects of the principal-agent relationship and their potential consequences at deployment. Furthermore, we motivate method developments for technical governance along the directions of interpretability and behavior evaluations, reward and conflict management, and the mitigation of misalignment and misconduct through principled engineering of detection and fail-safe mechanisms. By illustrating the outstanding issues in AI liability for LLM-based agentic systems, we aim to inform the system design, auditing, and tracing to enhance transparency and liability attribution.

arxiv情報

著者 Garry A. Gabison,R. Patrick Xian
発行日 2025-06-17 13:42:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL, cs.CY, cs.MA パーマリンク