cs.LG」カテゴリーアーカイブ

Rectified Flows for Fast Multiscale Fluid Flow Modeling

要約 流体の統計的モデリングは、そのマルチスケールダイナミクスと初期条件に対する … 続きを読む

カテゴリー: cs.LG | Rectified Flows for Fast Multiscale Fluid Flow Modeling はコメントを受け付けていません

Unifying and extending Diffusion Models through PDEs for solving Inverse Problems

要約 拡散モデルは、コンピュータビジョンや科学的機械学習(SciML)に応用され … 続きを読む

カテゴリー: cs.LG, stat.CO, stat.ML | Unifying and extending Diffusion Models through PDEs for solving Inverse Problems はコメントを受け付けていません

Validating remotely sensed biomass estimates with forest inventory data in the western US

要約 地上部バイオマス(AGB)とその密度(AGBD)を高解像度でモニタリングす … 続きを読む

カテゴリー: cs.LG, stat.AP | Validating remotely sensed biomass estimates with forest inventory data in the western US はコメントを受け付けていません

Zero-Shot Time Series Forecasting with Covariates via In-Context Learning

要約 ゼロショット予測が可能な事前学習済み時系列モデルは、時系列予測のパフォーマ … 続きを読む

カテゴリー: cs.LG | Zero-Shot Time Series Forecasting with Covariates via In-Context Learning はコメントを受け付けていません

Not All Tokens Are Meant to Be Forgotten

要約 大規模言語モデル(LLM)は、膨大なテキストコーパスで事前に訓練され、人間 … 続きを読む

カテゴリー: cs.LG | Not All Tokens Are Meant to Be Forgotten はコメントを受け付けていません

Curvature Tuning: Provable Training-free Model Steering From a Single Parameter

要約 モデルサイズとデータサイズの拡大縮小は、AIの展望を再形成し、下流のタスク … 続きを読む

カテゴリー: cs.LG | Curvature Tuning: Provable Training-free Model Steering From a Single Parameter はコメントを受け付けていません

Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation

要約 ラージ・ランゲージ・モデル(LLM)は、法的な議論生成のためにますます研究 … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2 | Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation はコメントを受け付けていません

Linear Representation Transferability Hypothesis: Leveraging Small Models to Steer Large Models

要約 類似のデータで訓練された類似のアーキテクチャを持つニューラルネットワークは … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Linear Representation Transferability Hypothesis: Leveraging Small Models to Steer Large Models はコメントを受け付けていません

Gaussian mixture models as a proxy for interacting language models

要約 大規模言語モデル(LLM)は、多くの場面で人間の能力や行動と一致する能力を … 続きを読む

カテゴリー: 62R07, cs.CL, cs.LG, stat.ML | Gaussian mixture models as a proxy for interacting language models はコメントを受け付けていません

Can Character-based Language Models Improve Downstream Task Performance in Low-Resource and Noisy Language Scenarios?

要約 近年の自然言語処理における目覚ましい改善は、主に文脈ニューラル言語モデルの … 続きを読む

カテゴリー: cs.CL, cs.LG | Can Character-based Language Models Improve Downstream Task Performance in Low-Resource and Noisy Language Scenarios? はコメントを受け付けていません