cs.LG」カテゴリーアーカイブ

PersonalLLM: Tailoring LLMs to Individual Preferences

要約 LLMが複雑なタスクになると、ユーザーの微妙で特異な好みに合わせたパーソナ … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.6 | PersonalLLM: Tailoring LLMs to Individual Preferences はコメントを受け付けていません

Implicit Word Reordering with Knowledge Distillation for Cross-Lingual Dependency Parsing

要約 ソース言語とターゲット言語の違いの違いは、特に依存関係の解析タスクにおいて … 続きを読む

カテゴリー: cs.CL, cs.LG | Implicit Word Reordering with Knowledge Distillation for Cross-Lingual Dependency Parsing はコメントを受け付けていません

Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models

要約 大規模な言語モデル(LLM)は意思決定に広く使用されていますが、特にヘルス … 続きを読む

カテゴリー: cs.CL, cs.LG | Understanding the Relationship between Prompts and Response Uncertainty in Large Language Models はコメントを受け付けていません

Mitigating Bias in RAG: Controlling the Embedder

要約 検索拡張生成(RAG)システムでは、各個々のコンポーネント(LLM、エンバ … 続きを読む

カテゴリー: cs.CL, cs.LG | Mitigating Bias in RAG: Controlling the Embedder はコメントを受け付けていません

TAG: A Decentralized Framework for Multi-Agent Hierarchical Reinforcement Learning

要約 階層組織は生物学的システムと人間社会の基本ですが、人工知能システムは、適応 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY | TAG: A Decentralized Framework for Multi-Agent Hierarchical Reinforcement Learning はコメントを受け付けていません

FABind+: Enhancing Molecular Docking through Improved Pocket Prediction and Pose Generation

要約 分子ドッキングは、創薬における極めて重要なプロセスです。 従来の手法は、物 … 続きを読む

カテゴリー: cs.AI, cs.LG, q-bio.BM | FABind+: Enhancing Molecular Docking through Improved Pocket Prediction and Pose Generation はコメントを受け付けていません

SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator

要約 大規模な言語モデル(LLM)は、さまざまな自然言語処理タスクにわたって並外 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SepLLM: Accelerate Large Language Models by Compressing One Segment into One Separator はコメントを受け付けていません

Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective

要約 コンピューティングの急速な進歩により、大規模な言語モデル(LLM)のトレー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Unveiling Downstream Performance Scaling of LLMs: A Clustering-Based Perspective はコメントを受け付けていません

Capability Instruction Tuning: A New Paradigm for Dynamic LLM Routing

要約 大規模な言語モデル(LLMS)は、人間のような指導中の能力、特に1,000 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Capability Instruction Tuning: A New Paradigm for Dynamic LLM Routing はコメントを受け付けていません

Matryoshka Quantization

要約 モデルの重みの量子化は、大規模なモデルの通信コストと推論コストを削減するた … 続きを読む

カテゴリー: cs.AI, cs.LG | Matryoshka Quantization はコメントを受け付けていません