月別アーカイブ: 2024年6月

Visualization for Recommendation Explainability: A Survey and New Perspectives

要約 システムが生成した推奨事項の説明を提供することは、透明性があり信頼できる推 … 続きを読む

カテゴリー: cs.AI, cs.HC, cs.IR | Visualization for Recommendation Explainability: A Survey and New Perspectives はコメントを受け付けていません

DRED: Zero-Shot Transfer in Reinforcement Learning via Data-Regularised Environment Design

要約 深層強化学習 (RL) を使用してトレーニングされた自律エージェントは、た … 続きを読む

カテゴリー: cs.AI, cs.LG | DRED: Zero-Shot Transfer in Reinforcement Learning via Data-Regularised Environment Design はコメントを受け付けていません

The Challenges of Evaluating LLM Applications: An Analysis of Automated, Human, and LLM-Based Approaches

要約 チャットボットは、当初から自然言語生成の興味深い応用例でした。 新しいトラ … 続きを読む

カテゴリー: cs.AI, cs.CL | The Challenges of Evaluating LLM Applications: An Analysis of Automated, Human, and LLM-Based Approaches はコメントを受け付けていません

Audio Mamba: Bidirectional State Space Model for Audio Representation Learning

要約 トランスフォーマーは、CNN に基づく方法を超えて、急速にオーディオ分類に … 続きを読む

カテゴリー: cs.AI, cs.SD, eess.AS | Audio Mamba: Bidirectional State Space Model for Audio Representation Learning はコメントを受け付けていません

Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize

要約 分布の変化の下で一般化する学習表現は、堅牢な機械学習モデルを構築するために … 続きを読む

カテゴリー: cs.AI, cs.LG | Feature Contamination: Neural Networks Learn Uncorrelated Features and Fail to Generalize はコメントを受け付けていません

All Language Models Large and Small

要約 多くの主要な言語モデル (LM) は、トレーニング中と実行中の両方で大量の … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | All Language Models Large and Small はコメントを受け付けていません

Active Preference Optimization for Sample Efficient RLHF

要約 人間のフィードバックからの強化学習 (RLHF) は、大規模言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Active Preference Optimization for Sample Efficient RLHF はコメントを受け付けていません

Grokfast: Accelerated Grokking by Amplifying Slow Gradients

要約 機械学習におけるグロッキングと呼ばれる不可解なアーティファクトの 1 つは … 続きを読む

カテゴリー: cs.AI, cs.LG | Grokfast: Accelerated Grokking by Amplifying Slow Gradients はコメントを受け付けていません

Remove that Square Root: A New Efficient Scale-Invariant Version of AdaGrad

要約 適応手法は、学習率の調整を低コストで行えるため、機械学習において非常に人気 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Remove that Square Root: A New Efficient Scale-Invariant Version of AdaGrad はコメントを受け付けていません

CLMASP: Coupling Large Language Models with Answer Set Programming for Robotic Task Planning

要約 大規模言語モデル (LLM) は、広範な基礎知識と適度な推論能力を備えてい … 続きを読む

カテゴリー: cs.AI | CLMASP: Coupling Large Language Models with Answer Set Programming for Robotic Task Planning はコメントを受け付けていません