AI as Decision-Maker: Ethics and Risk Preferences of LLMs

要約

大規模な言語モデル(LLMS)は、AIの意思決定者として機能する際に驚くほど多様なリスクの好みを示します。これは、経済的役割の拡大にもかかわらず、起源があまり理解されていない重要な特性です。
行動タスクを使用して50のLLMを分析し、安定したが多様なリスクプロファイルを見つけます。
無害性、有用性、誠実さへのアラインメントチューニングは、リスク回避を大幅に増加させ、比較差分析によって確認されたリスク回避を因果的に増加させます。10%の倫理が増加すると、リスクアッピットが2〜8%削減されます。
この誘導的な注意は、プロンプトに対して持続し、経済的予測に影響を与えます。
アラインメントは安全性を高めますが、貴重なリスクの採取を抑制し、トレードオフの危険を冒す経済的結果を危険にさらす可能性があります。
AIモデルは経済的意思決定に強力で影響力を高めながら、調整がますます重要になりますが、私たちの経験的フレームワークは、リスクの好みを追跡し、倫理的整合性と経済的に貴重なリスクテイクの間のこの重要な緊張を監視するための適応性のある永続的なベンチマークとして機能します。

要約(オリジナル)

Large Language Models (LLMs) exhibit surprisingly diverse risk preferences when acting as AI decision makers, a crucial characteristic whose origins remain poorly understood despite their expanding economic roles. We analyze 50 LLMs using behavioral tasks, finding stable but diverse risk profiles. Alignment tuning for harmlessness, helpfulness, and honesty significantly increases risk aversion, causally increasing risk aversion confirmed via comparative difference analysis: a ten percent ethics increase cuts risk appetite two to eight percent. This induced caution persists against prompts and affects economic forecasts. Alignment enhances safety but may also suppress valuable risk taking, revealing a tradeoff risking suboptimal economic outcomes. With AI models becoming more powerful and influential in economic decisions while alignment grows increasingly critical, our empirical framework serves as an adaptable and enduring benchmark to track risk preferences and monitor this crucial tension between ethical alignment and economically valuable risk-taking.

arxiv情報

著者 Shumiao Ouyang,Hayong Yun,Xingjian Zheng
発行日 2025-06-10 16:33:51+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CY, cs.ET, cs.HC, econ.GN, q-fin.EC パーマリンク