月別アーカイブ: 2024年1月

Dagma-DCE: Interpretable, Non-Parametric Differentiable Causal Discovery

要約 微分可能な因果発見のための解釈可能でモデルに依存しないスキームである Da … 続きを読む

カテゴリー: cs.LG, stat.ME, stat.ML | Dagma-DCE: Interpretable, Non-Parametric Differentiable Causal Discovery はコメントを受け付けていません

Digital-analog quantum learning on Rydberg atom arrays

要約 我々は、量子学習の潜在的な実用性と短期的な実現可能性を、中性原子の急速にス … 続きを読む

カテゴリー: cs.LG, quant-ph | Digital-analog quantum learning on Rydberg atom arrays はコメントを受け付けていません

The Tactician’s Web of Large-Scale Formal Knowledge

要約 The Tactician’s Web は、機械学習、分析、証 … 続きを読む

カテゴリー: 68T30, cs.LG, cs.LO, cs.PL, F.4.1, secondary | The Tactician’s Web of Large-Scale Formal Knowledge はコメントを受け付けていません

Memory, Consciousness and Large Language Model

要約 認知科学と大規模言語モデル (LLM) の発展により、これら 2 つの異な … 続きを読む

カテゴリー: cs.AI, cs.CL, q-bio.NC | Memory, Consciousness and Large Language Model はコメントを受け付けていません

LLM in a flash: Efficient Large Language Model Inference with Limited Memory

要約 大規模言語モデル (LLM) は現代の自然言語処理の中心であり、さまざまな … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | LLM in a flash: Efficient Large Language Model Inference with Limited Memory はコメントを受け付けていません

Interactive Text-to-SQL Generation via Editable Step-by-Step Explanations

要約 リレーショナル データベースは、ビジネスや科学などで重要な役割を果たしてい … 続きを読む

カテゴリー: cs.CL, cs.DB, I.2.7 | Interactive Text-to-SQL Generation via Editable Step-by-Step Explanations はコメントを受け付けていません

Unsupervised hard Negative Augmentation for contrastive learning

要約 我々は、用語周波数逆文書頻度 (TF-IDF) 検索モデルに基づいて合成ネ … 続きを読む

カテゴリー: cs.CL | Unsupervised hard Negative Augmentation for contrastive learning はコメントを受け付けていません

KwaiAgents: Generalized Information-seeking Agent System with Large Language Models

要約 人類は好奇心に駆られて、周囲の世界を探索し、理解しようと絶えず努力してきま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | KwaiAgents: Generalized Information-seeking Agent System with Large Language Models はコメントを受け付けていません

DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models

要約 Generative Pre-trained Transformer (G … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT Models はコメントを受け付けていません

AstroLLaMA-Chat: Scaling AstroLLaMA with Conversational and Diverse Datasets

要約 私たちは、対象を絞った継続的な事前トレーニングを通じて、天文学に焦点を当て … 続きを読む

カテゴリー: astro-ph.CO, astro-ph.GA, astro-ph.IM, astro-ph.SR, cs.CL, cs.LG | AstroLLaMA-Chat: Scaling AstroLLaMA with Conversational and Diverse Datasets はコメントを受け付けていません