Emergent Abilities in Large Language Models: A Survey

要約

大規模な言語モデル(LLM)は、人工的な一般情報に向けた最も有望な研究の流れの1つとして、新しい技術革命をリードしています。
これらのモデルのスケーリングは、パラメーターの数とトレーニングデータセットの大きさを増やすことで達成され、以前は観察されていなかったさまざまないわゆる緊急能力にリンクされています。
高度な推論やコンテスト内の学習からコーディングや問題解決に至るまでのこれらの緊急能力は、激しい科学的議論を引き起こしました。それらは本当に緊急ですか、それとも単にトレーニングダイナミクス、問題の種類、選択したメトリックなどの外部要因に依存していますか?
どのような根本的なメカニズムがそれらを引き起こしますか?
それらの変革的可能性にもかかわらず、緊急の能力は依然として不十分に理解されており、その定義、性質、予測可能性、および意味についての誤解につながります。
この作業では、現象の包括的なレビューを実施することにより、緊急の能力に光を当て、その科学的基盤と現実世界の結果の両方に対処しました。
最初に、既存の定義を批判的に分析し、緊急能力を概念化する際の矛盾を明らかにします。
次に、これらの能力が現れる条件を調査し、スケーリング法則、タスクの複雑さ、トレーニング前の損失、量子化、および促す戦略の役割を評価します。
私たちのレビューは、従来のLLMを超えて拡張されており、強化学習と推論時間検索を活用して推論と自己反省を増幅する大きな推論モデル(LRM)が含まれています。
ただし、出現は本質的にポジティブではありません。
AIシステムは自律的な推論能力を獲得するにつれて、欺ception、操作、報酬ハッキングなどの有害な行動も開発します。
安全性とガバナンスに関する懸念の高まりを強調し、より良い評価フレームワークと規制上の監視の必要性を強調します。

要約(オリジナル)

Large Language Models (LLMs) are leading a new technological revolution as one of the most promising research streams toward artificial general intelligence. The scaling of these models, accomplished by increasing the number of parameters and the magnitude of the training datasets, has been linked to various so-called emergent abilities that were previously unobserved. These emergent abilities, ranging from advanced reasoning and in-context learning to coding and problem-solving, have sparked an intense scientific debate: Are they truly emergent, or do they simply depend on external factors, such as training dynamics, the type of problems, or the chosen metric? What underlying mechanism causes them? Despite their transformative potential, emergent abilities remain poorly understood, leading to misconceptions about their definition, nature, predictability, and implications. In this work, we shed light on emergent abilities by conducting a comprehensive review of the phenomenon, addressing both its scientific underpinnings and real-world consequences. We first critically analyze existing definitions, exposing inconsistencies in conceptualizing emergent abilities. We then explore the conditions under which these abilities appear, evaluating the role of scaling laws, task complexity, pre-training loss, quantization, and prompting strategies. Our review extends beyond traditional LLMs and includes Large Reasoning Models (LRMs), which leverage reinforcement learning and inference-time search to amplify reasoning and self-reflection. However, emergence is not inherently positive. As AI systems gain autonomous reasoning capabilities, they also develop harmful behaviors, including deception, manipulation, and reward hacking. We highlight growing concerns about safety and governance, emphasizing the need for better evaluation frameworks and regulatory oversight.

arxiv情報

著者 Leonardo Berti,Flavio Giorgi,Gjergji Kasneci
発行日 2025-03-14 13:28:04+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク