cs.LG」カテゴリーアーカイブ

Budget-constrained Collaborative Renewable Energy Forecasting Market

要約 再生可能エネルギー源 (RES) からの正確な電力予測は、追加の RES … 続きを読む

カテゴリー: cs.LG | Budget-constrained Collaborative Renewable Energy Forecasting Market はコメントを受け付けていません

Audio Texture Manipulation by Exemplar-Based Analogy

要約 オーディオ テクスチャの操作には、聴覚要素の追加、削除、置換などの特定の変 … 続きを読む

カテゴリー: cs.LG, cs.SD, eess.AS | Audio Texture Manipulation by Exemplar-Based Analogy はコメントを受け付けていません

BlockDialect: Block-wise Fine-grained Mixed Format Quantization for Energy-Efficient LLM Inference

要約 大規模言語モデル (LLM) のサイズが急速に増大しているため、メモリ使用 … 続きを読む

カテゴリー: cs.CL, cs.LG | BlockDialect: Block-wise Fine-grained Mixed Format Quantization for Energy-Efficient LLM Inference はコメントを受け付けていません

QROA: A Black-Box Query-Response Optimization Attack on LLMs

要約 Large Language Model (LLM) はここ数カ月で人気が … 続きを読む

カテゴリー: cs.CL, cs.LG | QROA: A Black-Box Query-Response Optimization Attack on LLMs はコメントを受け付けていません

Federated Instruction Tuning of LLMs with Domain Coverage Augmentation

要約 Federated Domain-specific structuning … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | Federated Instruction Tuning of LLMs with Domain Coverage Augmentation はコメントを受け付けていません

PIER: A Novel Metric for Evaluating What Matters in Code-Switching

要約 コードスイッチング、つまり 1 つの談話内で言語を切り替えることは、自動音 … 続きを読む

カテゴリー: cs.CL, cs.LG | PIER: A Novel Metric for Evaluating What Matters in Code-Switching はコメントを受け付けていません

Ladder-residual: parallelism-aware architecture for accelerating large model inference with communication overlapping

要約 大規模な言語モデルの推論はメモリを大量に消費し、時間がかかるため、効率的に … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | Ladder-residual: parallelism-aware architecture for accelerating large model inference with communication overlapping はコメントを受け付けていません

FOCUS: First Order Concentrated Updating Scheme

要約 大規模言語モデル (LLM) は顕著なパフォーマンスを示しており、その事前 … 続きを読む

カテゴリー: cs.CL, cs.LG, math.OC | FOCUS: First Order Concentrated Updating Scheme はコメントを受け付けていません

Robust Federated Learning Over the Air: Combating Heavy-Tailed Noise with Median Anchored Clipping

要約 モデルの集約に無線計算を活用することは、フェデレーション エッジ ラーニン … 続きを読む

カテゴリー: cs.AI, cs.LG | Robust Federated Learning Over the Air: Combating Heavy-Tailed Noise with Median Anchored Clipping はコメントを受け付けていません

Distilling Calibration via Conformalized Credal Inference

要約 人工知能 (AI) モデルをエッジ デバイスに展開するには、限られたメモリ … 続きを読む

カテゴリー: cs.AI, cs.LG, eess.SP | Distilling Calibration via Conformalized Credal Inference はコメントを受け付けていません