cs.LG」カテゴリーアーカイブ

$FastDoc$: Domain-Specific Fast Continual Pre-training Technique using Document-Level Metadata and Taxonomy

要約 本論文では、$FastDoc$(Fast Continual Pre-tr … 続きを読む

カテゴリー: 68T50, cs.CL, cs.LG, I.2.7 | $FastDoc$: Domain-Specific Fast Continual Pre-training Technique using Document-Level Metadata and Taxonomy はコメントを受け付けていません

Shortcut-connected Expert Parallelism for Accelerating Mixture-of-Experts

要約 エキスパート並列は、スパースにゲートされたMoE(Mixture-of-E … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | Shortcut-connected Expert Parallelism for Accelerating Mixture-of-Experts はコメントを受け付けていません

Nova: A Practical and Advanced Alignment

要約 経験的に検証された一連の高性能モデルで採用されている、実践的なアライメント … 続きを読む

カテゴリー: cs.CL, cs.LG | Nova: A Practical and Advanced Alignment はコメントを受け付けていません

Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels

要約 自殺念慮の頻度が増加していることから、早期発見と介入の重要性が浮き彫りにな … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Leveraging Large Language Models for Suicide Detection on Social Media with Limited Labels はコメントを受け付けていません

Large Language Models as Efficient Reward Function Searchers for Custom-Environment Multi-Objective Reinforcement Learning

要約 複雑なカスタム環境と複数の要求を持つ強化学習(RL)タスクにおいて、効果的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.SY, eess.SY | Large Language Models as Efficient Reward Function Searchers for Custom-Environment Multi-Objective Reinforcement Learning はコメントを受け付けていません

When Large Language Models Meet Vector Databases: A Survey

要約 この調査では、急成長しているが急速に発展している研究分野である大規模言語モ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DB, cs.LG | When Large Language Models Meet Vector Databases: A Survey はコメントを受け付けていません

IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors

要約 グラフ・ニューラル・ネットワーク(GNN)は、データ・ラベルから学習し、ノ … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SI | IntraMix: Intra-Class Mixup Generation for Accurate Labels and Neighbors はコメントを受け付けていません

Equitable Federated Learning with Activation Clustering

要約 フェデレーテッド・ラーニングは、多様なクライアント間のコラボレーションを取 … 続きを読む

カテゴリー: cs.AI, cs.LG, eess.SP | Equitable Federated Learning with Activation Clustering はコメントを受け付けていません

InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling

要約 人間のフィードバックからの強化学習(RLHF)は、言語モデルを人間の価値観 … 続きを読む

カテゴリー: cs.AI, cs.LG | InfoRM: Mitigating Reward Hacking in RLHF via Information-Theoretic Reward Modeling はコメントを受け付けていません

Long Term Memory: The Foundation of AI Self-Evolution

要約 GPTのような大規模言語モデル(LLM)は、膨大なデータセットで学習され、 … 続きを読む

カテゴリー: cs.AI, cs.LG | Long Term Memory: The Foundation of AI Self-Evolution はコメントを受け付けていません