On the class of coding optimality of human languages and the origins of Zipf’s law

要約

ここでは、符号化システムの最適性に関する新しいクラスを提示する。そのクラスのメンバーは、最適符号化から直線的にずれるので、Zipfの法則、すなわち頻度ランクのべき乗分布を示す。このクラスの中では、Zipfの法則、サイズランクの法則、サイズ確率の法則がグループ的な構造を形成する。我々は、このクラスのメンバーである人間の言語を特定する。Zipfの法則と十分な一致を示すすべての言語は、クラスの潜在的なメンバーである。一方、他の生物種には、指数分布を示すためにこのクラスのメンバーにはなり得ないコミュニケーションシステムが存在するが、イルカやザトウクジラはその可能性がある。私たちは、頻度対ランクのプロットを両対数スケールで示すことで、新たな知見を提供する。どのようなシステムにおいても、そのスケールにおける直線は、非特異符号化と一意に復号可能な符号化における最適符号の長さが、Zipfの法則の指数を傾きとする一次関数によって変位することを示している。圧縮され、一意に復号可能であることが制約されたシステムでは、このような直線は、システムが最適に近い符号化をしていることを示すかもしれない。我々の発見は、Zipfの法則が圧縮に由来するという仮説を支持するものである。

要約(オリジナル)

Here we present a new class of optimality for coding systems. Members of that class are displaced linearly from optimal coding and thus exhibit Zipf’s law, namely a power-law distribution of frequency ranks. Within that class, Zipf’s law, the size-rank law and the size-probability law form a group-like structure. We identify human languages that are members of the class. All languages showing sufficient agreement with Zipf’s law are potential members of the class. In contrast, there are communication systems in other species that cannot be members of that class for exhibiting an exponential distribution instead but dolphins and humpback whales might. We provide a new insight into plots of frequency versus rank in double logarithmic scale. For any system, a straight line in that scale indicates that the lengths of optimal codes under non-singular coding and under uniquely decodable encoding are displaced by a linear function whose slope is the exponent of Zipf’s law. For systems under compression and constrained to be uniquely decodable, such a straight line may indicate that the system is coding close to optimality. Our findings provide support for the hypothesis that Zipf’s law originates from compression.

arxiv情報

著者 Ramon Ferrer-i-Cancho
発行日 2025-06-03 17:00:20+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, physics.soc-ph | On the class of coding optimality of human languages and the origins of Zipf’s law はコメントを受け付けていません

d1: Scaling Reasoning in Diffusion Large Language Models via Reinforcement Learning

要約

最近の大規模言語モデル(LLM)は、オンライン強化学習(RL)の恩恵を受けた強力な推論能力を実証している。これらの能力は、主に左から右への自己回帰(AR)生成パラダイムにおいて実証されてきた。これとは対照的に、拡散に基づく非自己回帰的なパラダイムは、テキストを粗から細へ生成する。最近の拡散に基づく大規模言語モデル(dLLM)は、ARと比較して競争力のある言語モデリング性能を達成しているが、dLLMがLLM推論の最近の進歩を活用できるかどうかは不明である。この目的のために、我々は、教師付き微調整(SFT)とRLの組み合わせにより、事前に訓練されたマスクされたdLLMを推論モデルに適応させるフレームワークであるd1を提案する。具体的には、我々は事前に訓練されたdLLMの推論を改善するための技術を開発し、拡張する。(a)我々は、知識を抽出し、既存のデータセットから直接自己改善行動を植え付けるために、マスクされたSFT技術を利用する。実証的研究を通じて、複数の数学的・計画的ベンチマークにおける、異なるポストトレーニングレシピの性能を調査する。その結果、d1が最高の性能をもたらし、最先端のdLLMの性能を大幅に改善することがわかった。我々のコードはhttps://dllm-reasoning.github.io/。

要約(オリジナル)

Recent large language models (LLMs) have demonstrated strong reasoning capabilities that benefits from online reinforcement learning (RL). These capabilities have primarily been demonstrated within the left-to-right autoregressive (AR) generation paradigm. In contrast, non-autoregressive paradigms based on diffusion generate text in a coarse-to-fine manner. Although recent diffusion-based large language models (dLLMs) have achieved competitive language modeling performance compared to their AR counterparts, it remains unclear if dLLMs can also leverage recent advances in LLM reasoning. To this end, we propose d1, a framework to adapt pre-trained masked dLLMs into reasoning models via a combination of supervised finetuning (SFT) and RL. Specifically, we develop and extend techniques to improve reasoning in pretrained dLLMs: (a) we utilize a masked SFT technique to distill knowledge and instill self-improvement behavior directly from existing datasets, and (b) we introduce a novel critic-free, policy-gradient based RL algorithm called diffu-GRPO, the first integration of policy gradient methods to masked dLLMs. Through empirical studies, we investigate the performance of different post-training recipes on multiple mathematical and planning benchmarks. We find that d1 yields the best performance and significantly improves performance of a state-of-the-art dLLM. Our code is released at https://dllm-reasoning.github.io/.

arxiv情報

著者 Siyan Zhao,Devaansh Gupta,Qinqing Zheng,Aditya Grover
発行日 2025-06-03 17:02:25+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.LG | d1: Scaling Reasoning in Diffusion Large Language Models via Reinforcement Learning はコメントを受け付けていません

A$^2$ATS: Retrieval-Based KV Cache Reduction via Windowed Rotary Position Embedding and Query-Aware Vector Quantization

要約

長いコンテキストの大規模言語モデル(LLM)は、KVキャッシュの大きなメモリフットプリントと高いアクセスオーバーヘッドのために、効率的なサービングに大きな課題をもたらす。検索に基づくKVキャッシュ削減手法は、これらの課題を軽減することができる。典型的には、完全なKVキャッシュをCPUにオフロードし、推論中に必要なトークンをオンデマンドで検索する。しかし、これらの手法は依然として満足のいく精度劣化と余分な検索オーバーヘッドに悩まされている。これらの限界に対処するため、本論文では、検索に基づく新しいKVキャッシュ削減手法A$^2$ATSを提案する。A$^2$ATSは、ベクトル量子化技術をキー状態に適用することで、アテンションスコアの正確な近似を得ることを目的とし、それによりトップKトークンの効率的で正確な検索を可能にする。まず、Windowed Rotary Position Embeddingを提案し、位置埋め込み後にクエリとキー状態の位置依存性を切り離す。次に、注目スコア近似の目的を直接最適化する、クエリを考慮したベクトル量子化を提案する。最後に、KVキャッシュオフロードのための異種推論アーキテクチャを設計し、より大きなバッチサイズで長いコンテキストサービングを可能にする。実験の結果、A$^2$ATSは既存の手法と比較して、同等かそれ以下のオーバーヘッドで低い性能劣化を達成することができ、それによってロングコンテキストサービングのスループットが最大2.7倍$向上することが実証された。

要約(オリジナル)

Long context large language models (LLMs) pose significant challenges for efficient serving due to the large memory footprint and high access overhead of KV cache. Retrieval-based KV cache reduction methods can mitigate these challenges, typically by offloading the complete KV cache to CPU and retrieving necessary tokens on demand during inference. However, these methods still suffer from unsatisfactory accuracy degradation and extra retrieval overhead. To address these limitations, this paper proposes A$^2$ATS, a novel retrieval-based KV cache reduction method. A$^2$ATS aims to obtain an accurate approximation of attention scores by applying the vector quantization technique to key states, thereby enabling efficient and precise retrieval of the top-K tokens. First, we propose Windowed Rotary Position Embedding, which decouples the positional dependency from query and key states after position embedding. Then, we propose query-aware vector quantization that optimizes the objective of attention score approximation directly. Finally, we design the heterogeneous inference architecture for KV cache offloading, enabling long context serving with larger batch sizes. Experimental results demonstrate that A$^2$ATS can achieve a lower performance degradation with similar or lower overhead compared to existing methods, thereby increasing long context serving throughput by up to $2.7 \times$.

arxiv情報

著者 Junhui He,Junna Xing,Nan Wang,Rui Xu,Shangyu Wu,Peng Zhou,Qiang Liu,Chun Jason Xue,Qingan Li
発行日 2025-06-03 17:18:23+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | A$^2$ATS: Retrieval-Based KV Cache Reduction via Windowed Rotary Position Embedding and Query-Aware Vector Quantization はコメントを受け付けていません

Literary Evidence Retrieval via Long-Context Language Models

要約

現代のロングコンテクスト言語モデルは、文学的フィクションをどの程度理解しているのだろうか?我々は、Thatら(2022)のRELiCデータセットを再利用して、一次資料(例えば、『グレート・ギャツビー』)の全文が、その作品からの引用が欠落している文学批評と一緒にLLMに提供されるベンチマークを構築し、文学的証拠検索のタスクを通してこの疑問を探求する。モデルが欠落した引用を生成しなければならないこの設定は、モデルがグローバルな物語推論とテキスト精査の両方を行うことを要求することで、人間の文学分析プロセスを反映している。我々は、広範なフィルタリングと人間による検証を通して、292例の高品質なサブセットをキュレートする。我々の実験は、Gemini Pro 2.5のような最近の推論モデルが、人間の専門家のパフォーマンスを上回ることができることを示している(62.5%対50%の精度)。対照的に、最良のオープンウェイトモデルは29.1%の精度しか達成できず、オープンウェイトモデルとクローズドウェイトモデルの間の解釈推論における大きな隔たりが浮き彫りになった。その速度と見かけの正確さにもかかわらず、最強のモデルでさえ、ニュアンスに富んだ文学的シグナルや過剰生成に苦戦しており、LLMを文学分析に適用するための未解決の課題を示唆している。この方向での将来の研究を奨励するために、データセットと評価コードを公開する。

要約(オリジナル)

How well do modern long-context language models understand literary fiction? We explore this question via the task of literary evidence retrieval, repurposing the RELiC dataset of That et al. (2022) to construct a benchmark where the entire text of a primary source (e.g., The Great Gatsby) is provided to an LLM alongside literary criticism with a missing quotation from that work. This setting, in which the model must generate the missing quotation, mirrors the human process of literary analysis by requiring models to perform both global narrative reasoning and close textual examination. We curate a high-quality subset of 292 examples through extensive filtering and human verification. Our experiments show that recent reasoning models, such as Gemini Pro 2.5 can exceed human expert performance (62.5% vs. 50% accuracy). In contrast, the best open-weight model achieves only 29.1% accuracy, highlighting a wide gap in interpretive reasoning between open and closed-weight models. Despite their speed and apparent accuracy, even the strongest models struggle with nuanced literary signals and overgeneration, signaling open challenges for applying LLMs to literary analysis. We release our dataset and evaluation code to encourage future work in this direction.

arxiv情報

著者 Katherine Thai,Mohit Iyyer
発行日 2025-06-03 17:19:45+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Literary Evidence Retrieval via Long-Context Language Models はコメントを受け付けていません

Rethinking Evaluation Metrics for Grammatical Error Correction: Why Use a Different Evaluation Process than Human?

要約

文法誤り訂正(GEC)における自動評価メトリクスの目標の1つは、人間の嗜好に合うようにGECシステムをランク付けすることである。しかし、現在の自動評価は人間の評価とは異なる手順に基づいています。具体的には、人間による評価では、文レベルの相対評価結果(例えばペアワイズ比較)をレーティングアルゴリズムを用いて集計することで順位を決定するのに対し、自動評価では、文レベルの絶対スコアを平均してコーパスレベルのスコアを求め、それをソートして順位を決定する。本研究では、このギャップを埋めるために、人間の評価手法に沿った既存の自動評価指標の集計方法を提案する。編集ベースのメトリクス、n-gramベースのメトリクス、文レベルのメトリクスなど、様々なメトリクスを用いて実験を行い、ギャップを解消することで、SEEDAベンチマークにおいてほとんどのメトリクスで結果が改善することを示した。また、BERTベースのメトリクスでもGPT-4のメトリクスを上回る場合があることがわかった。提案するランキング手法は、統合されたgec-metricsである。

要約(オリジナル)

One of the goals of automatic evaluation metrics in grammatical error correction (GEC) is to rank GEC systems such that it matches human preferences. However, current automatic evaluations are based on procedures that diverge from human evaluation. Specifically, human evaluation derives rankings by aggregating sentence-level relative evaluation results, e.g., pairwise comparisons, using a rating algorithm, whereas automatic evaluation averages sentence-level absolute scores to obtain corpus-level scores, which are then sorted to determine rankings. In this study, we propose an aggregation method for existing automatic evaluation metrics which aligns with human evaluation methods to bridge this gap. We conducted experiments using various metrics, including edit-based metrics, n-gram based metrics, and sentence-level metrics, and show that resolving the gap improves results for the most of metrics on the SEEDA benchmark. We also found that even BERT-based metrics sometimes outperform the metrics of GPT-4. The proposed ranking method is integrated gec-metrics.

arxiv情報

著者 Takumi Goto,Yusuke Sakai,Taro Watanabe
発行日 2025-06-03 17:24:47+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Rethinking Evaluation Metrics for Grammatical Error Correction: Why Use a Different Evaluation Process than Human? はコメントを受け付けていません

Beyond Text Compression: Evaluating Tokenizers Across Scales

要約

トークナイザーの選択は言語モデルの性能に大きな影響を与えるが、トークナイザーの品質を利用しやすく信頼性の高い方法で評価することは未解決の課題である。スケーリング一貫性からヒントを得て、小規模なモデルであれば、大規模なモデルに対するトークナイザーの影響の大きな違いを、わずかな計算コストで正確に予測できることを示す。英語中心のトークナイザーと多言語トークナイザーの両方を系統的に評価することで、トークナイザーの選択は、英語でのタスクにはほとんど影響しないが、多言語設定では一貫した性能差が生じることを発見する。我々は、Zipfの法則にインスパイアされた新しい内在的トークナイザメトリクスを提案する。このメトリクスは、未知の言語をモデル化する際に、テキスト圧縮よりも下流の性能と強く相関する。トークナイザーの動作の複数の側面を捉えるために複数のメトリクスを組み合わせることで、固有トークナイザー評価のための信頼性の高いフレームワークを開発します。我々の研究は、将来の言語モデル開発において、情報に基づいたトークナイザー選択への、より効率的な道を提供する。

要約(オリジナル)

The choice of tokenizer can profoundly impact language model performance, yet accessible and reliable evaluations of tokenizer quality remain an open challenge. Inspired by scaling consistency, we show that smaller models can accurately predict significant differences in tokenizer impact on larger models at a fraction of the compute cost. By systematically evaluating both English-centric and multilingual tokenizers, we find that tokenizer choice has negligible effects on tasks in English but results in consistent performance differences in multilingual settings. We propose new intrinsic tokenizer metrics inspired by Zipf’s law that correlate more strongly with downstream performance than text compression when modeling unseen languages. By combining several metrics to capture multiple aspects of tokenizer behavior, we develop a reliable framework for intrinsic tokenizer evaluations. Our work offers a more efficient path to informed tokenizer selection in future language model development.

arxiv情報

著者 Jonas F. Lotz,António V. Lopes,Stephan Peitz,Hendra Setiawan,Leonardo Emili
発行日 2025-06-03 17:35:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Beyond Text Compression: Evaluating Tokenizers Across Scales はコメントを受け付けていません

One-shot Entropy Minimization

要約

我々は、13,440個の大規模言語モデルを訓練し、エントロピー最小化には、たった1個のラベルなしデータと10ステップの最適化が必要なだけで、ルールベースの強化学習において、数千個のデータと慎重に設計された報酬を用いて得られた性能に匹敵するか、それ以上の性能を達成できることを発見した。この驚くべき結果は、大規模言語モデルのポストトレーニングパラダイムの再考を促すかもしれない。我々のコードはhttps://github.com/zitian-gao/one-shot-em。

要約(オリジナル)

We trained 13,440 large language models and found that entropy minimization requires only a single unlabeled data and 10 steps optimization to achieve performance improvements comparable to or even greater than those obtained using thousands of data and carefully designed rewards in rule-based reinforcement learning. This striking result may prompt a rethinking of post-training paradigms for large language models. Our code is avaliable at https://github.com/zitian-gao/one-shot-em.

arxiv情報

著者 Zitian Gao,Lynx Chen,Joey Zhou,Bryan Dai
発行日 2025-06-03 17:45:49+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | One-shot Entropy Minimization はコメントを受け付けていません

DRAMA: Diverse Augmentation from Large Language Models to Smaller Dense Retrievers

要約

大規模言語モデル(LLM)は、高密度検索器として微調整されながら、強力な有効性と頑健性を実証してきた。しかし、LLMはパラメータサイズが大きいため、大規模なコーパスのエンコーディングコストが高く、クエリの待ち時間が長くなるなど、推論時間の計算量に大きな問題があり、実用的な導入が制限されている。小さい検索器は効率が良い反面、限られた教師付き微調整データでは効果的に汎化できないことが多い。本論文では、LLMを活用して、より小さな汎化可能な密な検索器を学習する学習フレームワークであるDRAMAを紹介する。特に、刈り込まれたLLMをバックボーンとして採用し、LLMで補強された多様なデータを用いて一段階の対照学習セットアップで学習を行う。実験によれば、DRAMAは従来のエンコーダベースの検索器よりも優れた多言語・ロングコンテクスト機能を提供し、複数のタスクや言語にわたって高い性能を達成する。これらの結果は、効率性と汎化性のギャップを埋めるために、より小さな検索器の訓練とLLMの進歩を結びつける可能性を強調している。

要約(オリジナル)

Large language models (LLMs) have demonstrated strong effectiveness and robustness while fine-tuned as dense retrievers. However, their large parameter size brings significant inference time computational challenges, including high encoding costs for large-scale corpora and increased query latency, limiting their practical deployment. While smaller retrievers offer better efficiency, they often fail to generalize effectively with limited supervised fine-tuning data. In this work, we introduce DRAMA, a training framework that leverages LLMs to train smaller generalizable dense retrievers. In particular, we adopt pruned LLMs as the backbone and train on diverse LLM-augmented data in a single-stage contrastive learning setup. Experiments show that DRAMA offers better multilingual and long-context capabilities than traditional encoder-based retrievers, and achieves strong performance across multiple tasks and languages. These highlight the potential of connecting the training of smaller retrievers with the growing advancements in LLMs, bridging the gap between efficiency and generalization.

arxiv情報

著者 Xueguang Ma,Xi Victoria Lin,Barlas Oguz,Jimmy Lin,Wen-tau Yih,Xilun Chen
発行日 2025-06-03 17:47:36+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL, cs.IR | DRAMA: Diverse Augmentation from Large Language Models to Smaller Dense Retrievers はコメントを受け付けていません

AUTOCIRCUIT-RL: Reinforcement Learning-Driven LLM for Automated Circuit Topology Generation

要約

アナログ回路トポロジー合成は、電子設計自動化(EDA)に不可欠であり、特定の設計要件に合わせた回路構造の自動作成を可能にする。しかし、膨大な設計検索空間と厳格な制約の遵守が、効率的な合成を困難にしています。我々は、大規模言語モデル(LLM)の汎用性を活用し、アナログ回路自動合成のための新しい強化学習(RL)ベースのフレームワークであるAUTOCIRCUIT-RLを提案する。このフレームワークは、LLMが設計制約をエンコードした構造化プロンプトから回路トポロジを生成することを学習する命令チューニングと、妥当性、効率、出力電圧を評価する報酬モデルを用いて命令チューニングされたモデルをさらに改良するRL改良の2つのフェーズで動作する。改良されたモデルは、設計制約を満たすトポロジを生成するために直接使用される。実証結果によると、AUTOCIRCUIT-RLは最良のベースラインと比較して、有効な回路を約12%多く生成し、効率を約14%向上させるとともに、重複生成率を約38%削減しました。また、限られたトレーニングデータで有効な回路の合成に60%以上の成功を収め、強力な汎化性を実証しています。これらの結果は、効率と制約の順守を維持しながら複雑な回路に拡張するフレームワークの有効性を強調するものであり、AI駆動回路設計における重要な進歩を示すものである。

要約(オリジナル)

Analog circuit topology synthesis is integral to Electronic Design Automation (EDA), enabling the automated creation of circuit structures tailored to specific design requirements. However, the vast design search space and strict constraint adherence make efficient synthesis challenging. Leveraging the versatility of Large Language Models (LLMs), we propose AUTOCIRCUIT-RL,a novel reinforcement learning (RL)-based framework for automated analog circuit synthesis. The framework operates in two phases: instruction tuning, where an LLM learns to generate circuit topologies from structured prompts encoding design constraints, and RL refinement, which further improves the instruction-tuned model using reward models that evaluate validity, efficiency, and output voltage. The refined model is then used directly to generate topologies that satisfy the design constraints. Empirical results show that AUTOCIRCUIT-RL generates ~12% more valid circuits and improves efficiency by ~14% compared to the best baselines, while reducing duplicate generation rates by ~38%. It achieves over 60% success in synthesizing valid circuits with limited training data, demonstrating strong generalization. These findings highlight the framework’s effectiveness in scaling to complex circuits while maintaining efficiency and constraint adherence, marking a significant advancement in AI-driven circuit design.

arxiv情報

著者 Prashanth Vijayaraghavan,Luyao Shi,Ehsan Degan,Vandana Mukherjee,Xin Zhang
発行日 2025-06-03 17:54:30+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | AUTOCIRCUIT-RL: Reinforcement Learning-Driven LLM for Automated Circuit Topology Generation はコメントを受け付けていません

Is it the end of (generative) linguistics as we know it?

要約

Steven Piantadosi (Piantadosi, 2023)によって書かれ、生成言語学のオープンアーカイブであるLingBuzzプラットフォームにアップロードされた論文に対して、重要な議論が巻き起こっている。Piantadosiによるチョムスキーのアプローチの否定は冷酷だが、生成言語学者はそれに値する。本稿では、Piantadosiの批評を部分的に支持する2つの基本的な問題、(a)Poverty of Stimulus(PoS)仮説に挑戦する証拠、(b)主流のMinimalismで考えられている単純性の概念に焦点を当て、計算、理論、実験の3つの理想化された視点を採用する。結論として、言語研究において中心的な役割を取り戻すためには、生成言語学(言語に関する典型的な理論的観点)は、(i)基礎となる直観をより正確で一貫性のある完全な形式化すること、(ii)理論の妥当性を評価するための重要な経験的証拠の標準化されたデータセットを確立し活用することにつながる、深刻なアップデートが必要であると主張する。一方、形式的な観点を無視することは、計算論的アプローチと実験的アプローチの双方において大きな欠点につながる。経験的に検証可能な一般原理を正確に定式化しなければ、記述的妥当性も説明的妥当性も容易に達成できない。

要約(オリジナル)

A significant debate has emerged in response to a paper written by Steven Piantadosi (Piantadosi, 2023) and uploaded to the LingBuzz platform, the open archive for generative linguistics. Piantadosi’s dismissal of Chomsky’s approach is ruthless, but generative linguists deserve it. In this paper, I will adopt three idealized perspectives — computational, theoretical, and experimental — to focus on two fundamental issues that lend partial support to Piantadosi’s critique: (a) the evidence challenging the Poverty of Stimulus (PoS) hypothesis and (b) the notion of simplicity as conceived within mainstream Minimalism. In conclusion, I argue that, to reclaim a central role in language studies, generative linguistics — representing a prototypical theoretical perspective on language — needs a serious update leading to (i) more precise, consistent, and complete formalizations of foundational intuitions and (ii) the establishment and utilization of a standardized dataset of crucial empirical evidence to evaluate the theory’s adequacy. On the other hand, ignoring the formal perspective leads to major drawbacks in both computational and experimental approaches. Neither descriptive nor explanatory adequacy can be easily achieved without the precise formulation of general principles that can be challenged empirically.

arxiv情報

著者 Cristiano Chesi
発行日 2025-06-03 17:56:44+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.CL | Is it the end of (generative) linguistics as we know it? はコメントを受け付けていません