月別アーカイブ: 2024年6月

The Scandinavian Embedding Benchmarks: Comprehensive Assessment of Multilingual and Monolingual Text Embedding

要約 英語テキスト埋め込みの評価は、少数のデータセットの評価から、MTEB など … 続きを読む

カテゴリー: cs.AI, cs.CL | The Scandinavian Embedding Benchmarks: Comprehensive Assessment of Multilingual and Monolingual Text Embedding はコメントを受け付けていません

Chronosymbolic Learning: Efficient CHC Solving with Symbolic Reasoning and Inductive Learning

要約 Constrained Horn Clauses (CHC) を解決するこ … 続きを読む

カテゴリー: cs.AI, cs.LO, cs.PL | Chronosymbolic Learning: Efficient CHC Solving with Symbolic Reasoning and Inductive Learning はコメントを受け付けていません

Identifying Equivalent Training Dynamics

要約 ディープ ニューラル ネットワーク (DNN) パラメーターがトレーニング … 続きを読む

カテゴリー: cs.AI, cs.LG, math.DS | Identifying Equivalent Training Dynamics はコメントを受け付けていません

A Multi-Perspective Analysis of Memorization in Large Language Models

要約 大規模言語モデル (LLM) は、数十億のパラメーターを含む大規模なコーパ … 続きを読む

カテゴリー: cs.AI, cs.CL | A Multi-Perspective Analysis of Memorization in Large Language Models はコメントを受け付けていません

Semi-Supervised Learning guided by the Generalized Bayes Rule under Soft Revision

要約 我々は、半教師あり学習における擬似ラベル選択(PLS)の堅牢な基準として最 … 続きを読む

カテゴリー: 62C10, cs.AI, cs.LG, G.3, math.ST, stat.ME, stat.ML, stat.TH | Semi-Supervised Learning guided by the Generalized Bayes Rule under Soft Revision はコメントを受け付けていません

ExGRG: Explicitly-Generated Relation Graph for Self-Supervised Representation Learning

要約 自己教師あり学習 (SSL) は、高価な注釈付きラベルに依存せず、代わりに … 続きを読む

カテゴリー: cs.AI, cs.LG | ExGRG: Explicitly-Generated Relation Graph for Self-Supervised Representation Learning はコメントを受け付けていません

Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning

要約 大規模な分散機械学習では、最近の研究で、通信のボトルネックを軽減するための … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY, math.OC | Temporal Difference Learning with Compressed Updates: Error-Feedback meets Reinforcement Learning はコメントを受け付けていません

ENOT: Expectile Regularization for Fast and Accurate Training of Neural Optimal Transport

要約 我々は、デュアルカントロビッチポテンシャルの特定の正則化を介して最適な輸送 … 続きを読む

カテゴリー: cs.AI, cs.LG | ENOT: Expectile Regularization for Fast and Accurate Training of Neural Optimal Transport はコメントを受け付けていません

Don’t Fine-Tune, Decode: Syntax Error-Free Tool Use via Constrained Decoding

要約 命令調整された大規模言語モデル (LLM) は多くのタスクに優れていますが … 続きを読む

カテゴリー: cs.AI, cs.CL | Don’t Fine-Tune, Decode: Syntax Error-Free Tool Use via Constrained Decoding はコメントを受け付けていません

Efficient Fine-tuning of Audio Spectrogram Transformers via Soft Mixture of Adapters

要約 Mixture of Experts (MoE) アーキテクチャは、手頃な … 続きを読む

カテゴリー: cs.AI, eess.AS | Efficient Fine-tuning of Audio Spectrogram Transformers via Soft Mixture of Adapters はコメントを受け付けていません