cs.LG」カテゴリーアーカイブ

HiPoNet: A Topology-Preserving Multi-View Neural Network For High Dimensional Point Cloud and Single-Cell Data

要約 この論文では、高次元点雲の回帰、分類、および表現学習のためのエンドツーエン … 続きを読む

カテゴリー: cs.LG, math.AT | HiPoNet: A Topology-Preserving Multi-View Neural Network For High Dimensional Point Cloud and Single-Cell Data はコメントを受け付けていません

An Efficient Rehearsal Scheme for Catastrophic Forgetting Mitigation during Multi-stage Fine-tuning

要約 新しいタスクまたはドメインでの基礎モデルを段階的に微調整することは、NLP … 続きを読む

カテゴリー: cs.LG | An Efficient Rehearsal Scheme for Catastrophic Forgetting Mitigation during Multi-stage Fine-tuning はコメントを受け付けていません

Whole-Genome Phenotype Prediction with Machine Learning: Open Problems in Bacterial Genomics

要約 細菌特性を支配する因果遺伝的メカニズムをどのように識別できますか? 遺伝子 … 続きを読む

カテゴリー: cs.LG, q-bio.GN | Whole-Genome Phenotype Prediction with Machine Learning: Open Problems in Bacterial Genomics はコメントを受け付けていません

Scalable Fingerprinting of Large Language Models

要約 モデルの指紋は、モデル所有者がAPIアクセスを与えられた共有モデルを識別す … 続きを読む

カテゴリー: cs.CR, cs.LG | Scalable Fingerprinting of Large Language Models はコメントを受け付けていません

Cache Me If You Must: Adaptive Key-Value Quantization for Large Language Models

要約 大規模な言語モデル(LLMS)の効率的な実世界の展開は、長い出力を処理およ … 続きを読む

カテゴリー: cs.LG | Cache Me If You Must: Adaptive Key-Value Quantization for Large Language Models はコメントを受け付けていません

Optimistic Interior Point Methods for Sequential Hypothesis Testing by Betting

要約 「ベットによるテスト」の手法は、ノンパラメトリックのシーケンシャル仮説テス … 続きを読む

カテゴリー: cs.LG | Optimistic Interior Point Methods for Sequential Hypothesis Testing by Betting はコメントを受け付けていません

Curvature Tuning: Provable Training-free Model Steering From a Single Parameter

要約 モデルサイズとデータサイズのスケーリングにより、AIのパラダイムが再構築さ … 続きを読む

カテゴリー: cs.LG | Curvature Tuning: Provable Training-free Model Steering From a Single Parameter はコメントを受け付けていません

LASP-2: Rethinking Sequence Parallelism for Linear Attention and Its Hybrid

要約 線形の注意などの線形シーケンスモデリングアプローチは、線形時間トレーニング … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | LASP-2: Rethinking Sequence Parallelism for Linear Attention and Its Hybrid はコメントを受け付けていません

ChameleonLLM: Batch-Aware Dynamic Low-Rank Adaptation via Inference-Time Clusters

要約 大規模な言語モデル(LLMS)の最近の進歩により、多様なタスク全体で顕著な … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | ChameleonLLM: Batch-Aware Dynamic Low-Rank Adaptation via Inference-Time Clusters はコメントを受け付けていません

Automated Capability Discovery via Model Self-Exploration

要約 基礎モデルは汎用アシスタントになり、Webスケールデータのトレーニングを通 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Automated Capability Discovery via Model Self-Exploration はコメントを受け付けていません