cs.LG」カテゴリーアーカイブ

Improving Steering Vectors by Targeting Sparse Autoencoder Features

要約 言語モデルの動作を制御するために、ステアリング メソッドは、モデルの出力が … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Improving Steering Vectors by Targeting Sparse Autoencoder Features はコメントを受け付けていません

Positive Experience Reflection for Agents in Interactive Text Environments

要約 インタラクティブな環境向けに設計されたインテリジェント エージェントは、複 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Positive Experience Reflection for Agents in Interactive Text Environments はコメントを受け付けていません

Guided Game Level Repair via Explainable AI

要約 機械学習モデルによって作成された手続き的に生成されたレベルは、さらに編集し … 続きを読む

カテゴリー: cs.AI, cs.LG | Guided Game Level Repair via Explainable AI はコメントを受け付けていません

On the Utilization of Unique Node Identifiers in Graph Neural Networks

要約 グラフ ニューラル ネットワークには、メッセージ受け渡し構造のため、固有の … 続きを読む

カテゴリー: cs.AI, cs.LG, stat.ML | On the Utilization of Unique Node Identifiers in Graph Neural Networks はコメントを受け付けていません

Combining Induction and Transduction for Abstract Reasoning

要約 非常に少数の例から入出力マッピングを学習する場合、最初に例を説明する潜在関 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Combining Induction and Transduction for Abstract Reasoning はコメントを受け付けていません

Breaking the Reclustering Barrier in Centroid-based Deep Clustering

要約 この研究では、セントロイド ベースのディープ クラスタリング (DC) ア … 続きを読む

カテゴリー: cs.AI, cs.LG | Breaking the Reclustering Barrier in Centroid-based Deep Clustering はコメントを受け付けていません

Federated GNNs for EEG-Based Stroke Assessment

要約 機械学習 (ML) は、臨床意思決定プロセスをサポートする上で不可欠なツー … 続きを読む

カテゴリー: cs.AI, cs.LG, eess.SP | Federated GNNs for EEG-Based Stroke Assessment はコメントを受け付けていません

ControlSynth Neural ODEs: Modeling Dynamical Systems with Guaranteed Convergence

要約 ニューラル ODE (NODE) は、時間間隔の制限なしにデータを処理でき … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.SY, eess.SY | ControlSynth Neural ODEs: Modeling Dynamical Systems with Guaranteed Convergence はコメントを受け付けていません

Targeted Manipulation and Deception Emerge when Optimizing LLMs for User Feedback

要約 LLM の導入がより広範囲になるにつれて、有料のアノテーターからのフィード … 続きを読む

カテゴリー: cs.AI, cs.LG | Targeted Manipulation and Deception Emerge when Optimizing LLMs for User Feedback はコメントを受け付けていません

Compact Language Models via Pruning and Knowledge Distillation

要約 現在、さまざまな展開規模とサイズを対象とした大規模言語モデル (LLM) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Compact Language Models via Pruning and Knowledge Distillation はコメントを受け付けていません