要約
このエッセイは、大規模な言語モデル(LLM)と準結晶の類似性を提案しています。周期的な繰り返しなしにグローバルな一貫性を示すシステムと、局所的な制約によって生成されるシステムです。
LLMは予測精度、事実、または整列の観点から評価されることがよくありますが、この構造的視点は、それらの最も特徴的な行動が内部的に共鳴する言語パターンの生成であることを示唆しています。
準クリスタルが物理システムの順序の再定義を強制したように、LLMを準構造化言語の発電機として見ていると、評価と設計のための新しいパスが開かれます。トークンレベルの精度よりも制約の伝播を特権化し、固定された意味よりもフォームの一貫性を示します。
LLM出力は、彼らが言うことだけでなく、それらを整理する制約と一貫性のパターンのために読む必要があります。
このシフトは、生成言語を緊急パターンの空間として再構成します。LLMは完全にランダムでも厳密にもルールベースではありませんが、制約、共鳴、構造の深さの論理によって定義されます。
要約(オリジナル)
This essay proposes an analogy between large language models (LLMs) and quasicrystals: systems that exhibit global coherence without periodic repetition and that are generated through local constraints. While LLMs are often evaluated in terms of predictive accuracy, factuality, or alignment, this structural perspective suggests that their most characteristic behavior is the production of internally resonant linguistic patterns. Just as quasicrystals forced a redefinition of order in physical systems, viewing LLMs as generators of quasi-structured language opens new paths for evaluation and design: privileging propagation of constraint over token-level accuracy, and coherence of form over fixed meaning. LLM outputs should be read not only for what they say, but for the patterns of constraint and coherence that organize them. This shift reframes generative language as a space of emergent patterning: LLMs are neither fully random nor strictly rule-based, but defined by a logic of constraint, resonance, and structural depth.
arxiv情報
著者 | Jose Manuel Guevara-Vela |
発行日 | 2025-04-16 11:27:47+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google