cs.CL」カテゴリーアーカイブ

Latent Space Interpretation for Stylistic Analysis and Explainable Authorship Attribution

要約 最近の最先端の著者帰属方法は、潜在的な解釈不可能な空間でテキストの著者表現 … 続きを読む

カテゴリー: cs.CL | Latent Space Interpretation for Stylistic Analysis and Explainable Authorship Attribution はコメントを受け付けていません

Extreme Compression of Large Language Models via Additive Quantization

要約 正確なオープンラージ言語モデル (LLM) の出現により、エンドユーザーの … 続きを読む

カテゴリー: cs.CL, cs.LG | Extreme Compression of Large Language Models via Additive Quantization はコメントを受け付けていません

Understanding Literary Texts by LLMs: A Case Study of Ancient Chinese Poetry

要約 大規模言語モデル (LLM) の誕生と急速な発展は、文学の分野に大きな波紋 … 続きを読む

カテゴリー: cs.CL | Understanding Literary Texts by LLMs: A Case Study of Ancient Chinese Poetry はコメントを受け付けていません

Understanding Knowledge Drift in LLMs through Misinformation

要約 大規模言語モデル (LLM) は多くのアプリケーションに革命をもたらし、デ … 続きを読む

カテゴリー: cs.CL, cs.LG | Understanding Knowledge Drift in LLMs through Misinformation はコメントを受け付けていません

Ontology-Free General-Domain Knowledge Graph-to-Text Generation Dataset Synthesis using Large Language Model

要約 ナレッジ グラフからテキストへ (G2T) 生成には、構造化されたナレッジ … 続きを読む

カテゴリー: cs.AI, cs.CL | Ontology-Free General-Domain Knowledge Graph-to-Text Generation Dataset Synthesis using Large Language Model はコメントを受け付けていません

MathGenie: Generating Synthetic Data with Question Back-translation for Enhancing Mathematical Reasoning of LLMs

要約 大規模言語モデル (LLM) は、数学的推論において大きな可能性を示してい … 続きを読む

カテゴリー: cs.AI, cs.CL | MathGenie: Generating Synthetic Data with Question Back-translation for Enhancing Mathematical Reasoning of LLMs はコメントを受け付けていません

MoPE: Parameter-Efficient and Scalable Multimodal Fusion via Mixture of Prompt Experts

要約 プロンプトベースのマルチモーダル融合手法のパラメータ効率が実証されているに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG | MoPE: Parameter-Efficient and Scalable Multimodal Fusion via Mixture of Prompt Experts はコメントを受け付けていません

Cross-Refine: Improving Natural Language Explanation Generation by Learning in Tandem

要約 自然言語説明 (NLE) は、大規模言語モデル (LLM) の決定の背後に … 続きを読む

カテゴリー: cs.CL, cs.LG | Cross-Refine: Improving Natural Language Explanation Generation by Learning in Tandem はコメントを受け付けていません

Reranking Laws for Language Generation: A Communication-Theoretic Perspective

要約 大規模言語モデル (LLM) が安全に使用されるようにするには、LLM が … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Reranking Laws for Language Generation: A Communication-Theoretic Perspective はコメントを受け付けていません

LLM-based feature generation from text for interpretable machine learning

要約 埋め込みやバッグオブワードなどの既存のテキスト表現は、その高次元性と機能レ … 続きを読む

カテゴリー: cs.CL, cs.LG | LLM-based feature generation from text for interpretable machine learning はコメントを受け付けていません