cs.AI」カテゴリーアーカイブ

Equivariant Representation Learning for Symmetry-Aware Inference with Guarantees

要約 回帰、条件付き確率推定、および不確実性の定量化の多くの現実世界の応用では、 … 続きを読む

カテゴリー: 43-06, cs.AI, cs.LG, cs.RO, I.2.6 | Equivariant Representation Learning for Symmetry-Aware Inference with Guarantees はコメントを受け付けていません

DISCOVER: Automated Curricula for Sparse-Reward Reinforcement Learning

要約 スパースリワード補強学習(RL)は、幅広い非常に複雑なタスクをモデル化でき … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO | DISCOVER: Automated Curricula for Sparse-Reward Reinforcement Learning はコメントを受け付けていません

SafeDPO: A Simple Approach to Direct Preference Optimization with Enhanced Safety

要約 大規模な言語モデル(LLMS)が進んでおり、ますます多くのフィールドでアプ … 続きを読む

カテゴリー: cs.AI, cs.LG | SafeDPO: A Simple Approach to Direct Preference Optimization with Enhanced Safety はコメントを受け付けていません

Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks

要約 大規模な言語モデル(LLMS)は、正式な仕様を生成することにより、自動化さ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LO, cs.SE | Grammars of Formal Uncertainty: When to Trust LLMs in Automated Reasoning Tasks はコメントを受け付けていません

SAEs Are Good for Steering — If You Select the Right Features

要約 スパース自動エンコーダー(SAE)は、モデルの潜在空間の分解を学ぶための監 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | SAEs Are Good for Steering — If You Select the Right Features はコメントを受け付けていません

Incentivizing Reasoning from Weak Supervision

要約 大規模な言語モデル(LLMS)は、推論集約型タスクの印象的なパフォーマンス … 続きを読む

カテゴリー: cs.AI, cs.CL | Incentivizing Reasoning from Weak Supervision はコメントを受け付けていません

Inference-time Alignment in Continuous Space

要約 推論時間に人間のフィードバックで大規模な言語モデルを調整することで、柔軟性 … 続きを読む

カテゴリー: cs.AI, cs.CL | Inference-time Alignment in Continuous Space はコメントを受け付けていません

Revealing the Intrinsic Ethical Vulnerability of Aligned Large Language Models

要約 大規模な言語モデル(LLM)は、人工的な一般情報の基礎的な調査ですが、指導 … 続きを読む

カテゴリー: cs.AI, cs.CL | Revealing the Intrinsic Ethical Vulnerability of Aligned Large Language Models はコメントを受け付けていません

Safety Through Reasoning: An Empirical Study of Reasoning Guardrail Models

要約 推論ベースの言語モデルは、さまざまなドメインで強力なパフォーマンスを実証し … 続きを読む

カテゴリー: cs.AI, cs.CL | Safety Through Reasoning: An Empirical Study of Reasoning Guardrail Models はコメントを受け付けていません

Homophily Enhanced Graph Domain Adaptation

要約 グラフドメインの適応(GDA)は、ラベルのあるソースグラフからラベルの希少 … 続きを読む

カテゴリー: cs.AI, cs.SI | Homophily Enhanced Graph Domain Adaptation はコメントを受け付けていません