月別アーカイブ: 2024年7月

Transformer Alignment in Large Language Models

要約 大規模言語モデル (LLM) は自然言語処理において大きな進歩を遂げており … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Transformer Alignment in Large Language Models はコメントを受け付けていません

Chinese Tiny LLM: Pretraining a Chinese-Centric Large Language Model

要約 この研究では、LLM の開発において中国語を優先するという極めて重要な移行 … 続きを読む

カテゴリー: cs.AI, cs.CL | Chinese Tiny LLM: Pretraining a Chinese-Centric Large Language Model はコメントを受け付けていません

TriQXNet: Forecasting Dst Index from Solar Wind Data Using an Interpretable Parallel Classical-Quantum Framework with Uncertainty Quantification

要約 太陽風エネルギーが地球の磁場に伝達することによって引き起こされる磁気嵐は、 … 続きを読む

カテゴリー: cs.AI | TriQXNet: Forecasting Dst Index from Solar Wind Data Using an Interpretable Parallel Classical-Quantum Framework with Uncertainty Quantification はコメントを受け付けていません

MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series

要約 大規模言語モデル (LLM) は近年大きな進歩を遂げ、さまざまなタスクにわ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | MAP-Neo: Highly Capable and Transparent Bilingual Large Language Model Series はコメントを受け付けていません

Same Task, More Tokens: the Impact of Input Length on the Reasoning Performance of Large Language Models

要約 このペーパーでは、入力長の拡張が大規模言語モデル (LLM) の機能に与え … 続きを読む

カテゴリー: cs.AI, cs.CL | Same Task, More Tokens: the Impact of Input Length on the Reasoning Performance of Large Language Models はコメントを受け付けていません

Uncovering Layer-Dependent Activation Sparsity Patterns in ReLU Transformers

要約 これまでの研究では、ReLU Transformers 内の MLP が高 … 続きを読む

カテゴリー: cs.AI, cs.LG | Uncovering Layer-Dependent Activation Sparsity Patterns in ReLU Transformers はコメントを受け付けていません

Agent Lumos: Unified and Modular Training for Open-Source Language Agents

要約 クローズドソースエージェントは、特に複雑な対話型タスクにおいて、手頃な価格 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Agent Lumos: Unified and Modular Training for Open-Source Language Agents はコメントを受け付けていません

Trial and Error: Exploration-Based Trajectory Optimization for LLM Agents

要約 大規模言語モデル (LLM) は、さまざまな自律エージェント システムに不 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Trial and Error: Exploration-Based Trajectory Optimization for LLM Agents はコメントを受け付けていません

Toto: Time Series Optimized Transformer for Observability

要約 この技術レポートでは、Datadog によって開発された時系列予測のための … 続きを読む

カテゴリー: cs.AI, cs.LG | Toto: Time Series Optimized Transformer for Observability はコメントを受け付けていません

Towards Robust Alignment of Language Models: Distributionally Robustifying Direct Preference Optimization

要約 この研究は、大規模言語モデル (LLM) を人間の好みに合わせて調整する方 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Towards Robust Alignment of Language Models: Distributionally Robustifying Direct Preference Optimization はコメントを受け付けていません