A Theory of LLM Sampling: Part Descriptive and Part Prescriptive

要約

大規模な言語モデル(LLM)は、自律的な意思決定でますます利用されており、広大なアクションスペースからオプションをサンプリングします。
ただし、このサンプリングプロセスを導くヒューリスティックは、未調査のままです。
このサンプリングの動作を研究し、この根底にあるヒューリスティックは、人間の意思決定に似ていることを示しています。説明的成分(統計的規範を反映)と概念の規範的なコンポーネント(LLMでエンコードされた暗黙の理想)を含むことを示します。
統計的規範から規範的要素へのサンプルのこの逸脱は、公衆衛生や経済動向などの多様な現実世界ドメインの概念に一貫して現れることを示します。
理論をさらに説明するために、LLMの概念プロトタイプは、人間の正常性の概念と同様に、規範的な規範の影響を受けることを実証します。
ケーススタディと人間の研究との比較を通じて、実際のアプリケーションでは、LLMSの出力の理想的な価値へのサンプルのシフトにより、意思決定が大幅に偏って倫理的な懸念を引き起こす可能性があることを示しています。

要約(オリジナル)

Large Language Models (LLMs) are increasingly utilized in autonomous decision-making, where they sample options from vast action spaces. However, the heuristics that guide this sampling process remain under-explored. We study this sampling behavior and show that this underlying heuristics resembles that of human decision-making: comprising a descriptive component (reflecting statistical norm) and a prescriptive component (implicit ideal encoded in the LLM) of a concept. We show that this deviation of a sample from the statistical norm towards a prescriptive component consistently appears in concepts across diverse real-world domains like public health, and economic trends. To further illustrate the theory, we demonstrate that concept prototypes in LLMs are affected by prescriptive norms, similar to the concept of normality in humans. Through case studies and comparison with human studies, we illustrate that in real-world applications, the shift of samples toward an ideal value in LLMs’ outputs can result in significantly biased decision-making, raising ethical concerns.

arxiv情報

著者 Sarath Sivaprasad,Pramod Kaushik,Sahar Abdelnabi,Mario Fritz
発行日 2025-04-18 14:01:42+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク