cs.LG」カテゴリーアーカイブ

Bayesian Experimental Design via Contrastive Diffusions

要約 ベイズ最適実験計画 (BOED) は、一連の実験の実行コストを削減する強力 … 続きを読む

カテゴリー: cs.LG, stat.ML | Bayesian Experimental Design via Contrastive Diffusions はコメントを受け付けていません

Agent Planning with World Knowledge Model

要約 インタラクティブな計画タスクを実行するためのエージェント モデルとして大規 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.LG, cs.MA | Agent Planning with World Knowledge Model はコメントを受け付けていません

Discovering Knowledge-Critical Subnetworks in Pretrained Language Models

要約 事前トレーニングされた言語モデル (LM) は、パラメータ内の知識の暗黙的 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Discovering Knowledge-Critical Subnetworks in Pretrained Language Models はコメントを受け付けていません

Inducing anxiety in large language models can induce bias

要約 大規模言語モデル (LLM) は、公開討論を活性化しながら、機械学習の研究 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Inducing anxiety in large language models can induce bias はコメントを受け付けていません

LLM-Mixer: Multiscale Mixing in LLMs for Time Series Forecasting

要約 時系列予測は、特に複雑なマルチスケールの時間パターンのコンテキストにおいて … 続きを読む

カテゴリー: cs.CL, cs.LG | LLM-Mixer: Multiscale Mixing in LLMs for Time Series Forecasting はコメントを受け付けていません

Phantom: General Trigger Attacks on Retrieval Augmented Language Generation

要約 検索拡張生成 (RAG) は、最も関連性の高い知識ソースへの応答を固定、適 … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.LG | Phantom: General Trigger Attacks on Retrieval Augmented Language Generation はコメントを受け付けていません

Mitigate Position Bias in Large Language Models via Scaling a Single Dimension

要約 大規模言語モデル (LLM) は、その優れた一般化機能と堅牢な生成機能によ … 続きを読む

カテゴリー: cs.CL, cs.LG | Mitigate Position Bias in Large Language Models via Scaling a Single Dimension はコメントを受け付けていません

Layer-wise Importance Matters: Less Memory for Better Performance in Parameter-efficient Fine-tuning of Large Language Models

要約 パラメータ効率の良い微調整 (PEFT) 手法は、主にメモリと計算オーバー … 続きを読む

カテゴリー: cs.CL, cs.LG | Layer-wise Importance Matters: Less Memory for Better Performance in Parameter-efficient Fine-tuning of Large Language Models はコメントを受け付けていません

Self-Data Distillation for Recovering Quality in Pruned Large Language Models

要約 大規模な言語モデルにより、自然言語処理は大幅に進歩しましたが、その展開には … 続きを読む

カテゴリー: cs.CL, cs.LG | Self-Data Distillation for Recovering Quality in Pruned Large Language Models はコメントを受け付けていません

The $μ\mathcal{G}$ Language for Programming Graph Neural Networks

要約 グラフ ニューラル ネットワークは、グラフ構造のデータを処理するように特別 … 続きを読む

カテゴリー: cs.AI, cs.FL, cs.LG, D.2.4 | The $μ\mathcal{G}$ Language for Programming Graph Neural Networks はコメントを受け付けていません