I.2.6」カテゴリーアーカイブ

Unsupervised Acquisition of Discrete Grammatical Categories

要約 この記事では、言語習得実験のために計算実験室環境を使用して実行された実験を … 続きを読む

カテゴリー: cs.CL, I.2.6 | Unsupervised Acquisition of Discrete Grammatical Categories はコメントを受け付けていません

How much do LLMs learn from negative examples?

要約 大規模な言語モデル(LLMS)は、3フェーズトレーニングプロセスを経ます: … 続きを読む

カテゴリー: 68T05, 68T50, cs.CL, I.2.6 | How much do LLMs learn from negative examples? はコメントを受け付けていません

Measuring In-Context Computation Complexity via Hidden State Prediction

要約 ニューラルシーケンスモデルが「興味深い」計算を行うときに検出することは、オ … 続きを読む

カテゴリー: cs.LG, I.2.6 | Measuring In-Context Computation Complexity via Hidden State Prediction はコメントを受け付けていません

Kolmogorov-Arnold Attention: Is Learnable Attention Better For Vision Transformers?

要約 Kolmogorov-Arnold Networks(KANS)は、データ … 続きを読む

カテゴリー: 68T07, cs.CV, cs.LG, I.2.6 | Kolmogorov-Arnold Attention: Is Learnable Attention Better For Vision Transformers? はコメントを受け付けていません

Algebraic Evaluation Theorems

要約 多数票(MV)は、プロトタイプの「群衆の知恵」アルゴリズムです。 MVがグ … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.6 | Algebraic Evaluation Theorems はコメントを受け付けていません

A Constraint-Preserving Neural Network Approach for Solving Mean-Field Games Equilibrium

要約 ニューラルネットワークベースの方法は、高次元平均フィールドゲーム(MFG) … 続きを読む

カテゴリー: 68T07, cs.LG, I.2.6 | A Constraint-Preserving Neural Network Approach for Solving Mean-Field Games Equilibrium はコメントを受け付けていません

A Multimodal Symphony: Integrating Taste and Sound through Generative AI

要約 ここ数十年で、神経科学的および心理的研究は、味と聴覚認識の間の直接的な関係 … 続きを読む

カテゴリー: cs.AI, cs.MM, cs.SD, eess.AS, I.2.6 | A Multimodal Symphony: Integrating Taste and Sound through Generative AI はコメントを受け付けていません

Identifiable Multi-View Causal Discovery Without Non-Gaussianity

要約 マルチビュー構造方程式モデル(SEM)のフレームワークにおける線形因果発見 … 続きを読む

カテゴリー: (Primary), 05C82, cs.LG, I.2.6, stat.ML | Identifiable Multi-View Causal Discovery Without Non-Gaussianity はコメントを受け付けていません

Understanding the Limits of Deep Tabular Methods with Temporal Shift

要約 深い層のモデルは、I.I.D。で顕著な成功を示しています。 さまざまな構造 … 続きを読む

カテゴリー: 68T05, cs.LG, I.2.6 | Understanding the Limits of Deep Tabular Methods with Temporal Shift はコメントを受け付けていません

Large Language Models as Attribution Regularizers for Efficient Model Training

要約 大規模な言語モデル(LLM)は、多様なドメイン全体で顕著なパフォーマンスを … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.6 | Large Language Models as Attribution Regularizers for Efficient Model Training はコメントを受け付けていません