要約
大規模言語モデル (LLM) は、要約、算術推論、質問応答などのタスクにおいて顕著な能力を示しています。
ただし、特に複数の利害関係者が関与する複雑なシナリオでは、道徳的推論と倫理的意思決定の領域で重大な課題に直面します。
この論文では、複数の利害関係者の視点から意思決定の結果を探ることにより、LLM における道徳的推論を強化することを目的とした、スキン イン ザ ゲーム (SKIG) フレームワークを紹介します。
SKIG のメカニズムの中心となるのは、行動に対する責任をシミュレートすることであり、これは共感訓練やリスク評価と並んで、その有効性にとって極めて重要です。
私たちは独自のオープンソース LLM を使用してさまざまな道徳的推論ベンチマーク全体で SKIG のパフォーマンスを検証し、広範なアブレーション分析を通じてその重要なコンポーネントを調査します。
要約(オリジナル)
Large Language Models (LLMs) have shown remarkable capabilities in tasks such as summarization, arithmetic reasoning, and question answering. However, they encounter significant challenges in the domain of moral reasoning and ethical decision-making, especially in complex scenarios with multiple stakeholders. This paper introduces the Skin-in-the-Game (SKIG) framework, aimed at enhancing moral reasoning in LLMs by exploring decisions’ consequences from multiple stakeholder perspectives. Central to SKIG’s mechanism is simulating accountability for actions, which, alongside empathy exercises and risk assessment, is pivotal to its effectiveness. We validate SKIG’s performance across various moral reasoning benchmarks with proprietary and opensource LLMs, and investigate its crucial components through extensive ablation analyses.
arxiv情報
著者 | Bilgehan Sel,Priya Shanmugasundaram,Mohammad Kachuee,Kun Zhou,Ruoxi Jia,Ming Jin |
発行日 | 2024-05-21 17:04:44+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google