cs.CL」カテゴリーアーカイブ

MobA: A Two-Level Agent System for Efficient Mobile Task Automation

要約 現在のモバイル アシスタントは、システム API への依存によって制限され … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.MA | MobA: A Two-Level Agent System for Efficient Mobile Task Automation はコメントを受け付けていません

Larger Language Models Don’t Care How You Think: Why Chain-of-Thought Prompting Fails in Subjective Tasks

要約 大規模言語モデル (LLM) のインコンテキスト学習 (ICL) は、勾配 … 続きを読む

カテゴリー: cs.AI, cs.CL | Larger Language Models Don’t Care How You Think: Why Chain-of-Thought Prompting Fails in Subjective Tasks はコメントを受け付けていません

Aggregation Artifacts in Subjective Tasks Collapse Large Language Models’ Posteriors

要約 インコンテキスト学習 (ICL) は、大規模言語モデル (LLM) を使用 … 続きを読む

カテゴリー: cs.AI, cs.CL | Aggregation Artifacts in Subjective Tasks Collapse Large Language Models’ Posteriors はコメントを受け付けていません

Optimal Quantization for Matrix Multiplication

要約 機械学習コミュニティの最近の研究では、大きな行列の非可逆圧縮 (量子化) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IT, cs.LG, math.IT | Optimal Quantization for Matrix Multiplication はコメントを受け付けていません

PopAlign: Diversifying Contrasting Patterns for a More Comprehensive Alignment

要約 大規模言語モデル (LLM) の調整には、人間の好みに応じて応答を調整する … 続きを読む

カテゴリー: cs.AI, cs.CL | PopAlign: Diversifying Contrasting Patterns for a More Comprehensive Alignment はコメントを受け付けていません

Looking Inward: Language Models Can Learn About Themselves by Introspection

要約 人間は外界を観察することによって知識を獲得しますが、内省によっても知識を獲 … 続きを読む

カテゴリー: cs.AI, cs.CL | Looking Inward: Language Models Can Learn About Themselves by Introspection はコメントを受け付けていません

Many-Shot In-Context Learning

要約 大規模言語モデル (LLM) は、重みの更新を行わずに、推論時にコンテキス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Many-Shot In-Context Learning はコメントを受け付けていません

AgentOccam: A Simple Yet Strong Baseline for LLM-Based Web Agents

要約 パーソナライズされ標準化されたタスクに大規模言語モデル (LLM) を使用 … 続きを読む

カテゴリー: cs.AI, cs.CL | AgentOccam: A Simple Yet Strong Baseline for LLM-Based Web Agents はコメントを受け付けていません

Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach

要約 検索拡張生成 (RAG) は、大規模言語モデル (LLM) が長すぎるコン … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Retrieval Augmented Generation or Long-Context LLMs? A Comprehensive Study and Hybrid Approach はコメントを受け付けていません

A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | A Common Pitfall of Margin-based Language Model Alignment: Gradient Entanglement はコメントを受け付けていません