月別アーカイブ: 2024年4月

Already Moderate Population Sizes Provably Yield Strong Robustness to Noise

要約 経験によれば、典型的な進化アルゴリズムは、ノイズの多い関数評価などの確率的 … 続きを読む

カテゴリー: cs.AI, cs.NE | Already Moderate Population Sizes Provably Yield Strong Robustness to Noise はコメントを受け付けていません

Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties

要約 人間の価値観は人間の意思決定にとって非常に重要です。 価値多元主義とは、複 … 続きを読む

カテゴリー: cs.AI, cs.CL | Value Kaleidoscope: Engaging AI with Pluralistic Human Values, Rights, and Duties はコメントを受け付けていません

Lifelong Continual Learning for Anomaly Detection: New Challenges, Perspectives, and Insights

要約 異常検出は、進化する動作を特徴とする多くの実世界のドメインにおいて最も重要 … 続きを読む

カテゴリー: cs.AI, cs.LG | Lifelong Continual Learning for Anomaly Detection: New Challenges, Perspectives, and Insights はコメントを受け付けていません

Measuring and Controlling Instruction (In)Stability in Language Model Dialogs

要約 システム プロンプトは、言語モデル チャットボットをカスタマイズするための … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Measuring and Controlling Instruction (In)Stability in Language Model Dialogs はコメントを受け付けていません

Deployable Reinforcement Learning with Variable Control Rate

要約 強化学習 (RL) でトレーニングされたコントローラーを実際のロボットに導 … 続きを読む

カテゴリー: cs.AI, cs.RO | Deployable Reinforcement Learning with Variable Control Rate はコメントを受け付けていません

UINav: A Practical Approach to Train On-Device Automation Agents

要約 アプリケーションのユーザー インターフェイスを自律的に駆動してユーザーのタ … 続きを読む

カテゴリー: cs.AI, cs.HC | UINav: A Practical Approach to Train On-Device Automation Agents はコメントを受け付けていません

FLawN-T5: An Empirical Examination of Effective Instruction-Tuning Data Mixtures for Legal Reasoning

要約 命令のチューニングは、ユーザーとの直接対話に役立つ言語モデルを作成するため … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2 | FLawN-T5: An Empirical Examination of Effective Instruction-Tuning Data Mixtures for Legal Reasoning はコメントを受け付けていません

Don’t throw away your value model! Generating more preferable text with Value-Guided Monte-Carlo Tree Search decoding

要約 近接ポリシー最適化 (PPO) などの最先端の強化学習に基づいて自然言語テ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Don’t throw away your value model! Generating more preferable text with Value-Guided Monte-Carlo Tree Search decoding はコメントを受け付けていません

HALO: An Ontology for Representing and Categorizing Hallucinations in Large Language Models

要約 ChatGPT のような大規模言語モデル (LLM) を含む生成 AI の … 続きを読む

カテゴリー: cs.AI, cs.CL | HALO: An Ontology for Representing and Categorizing Hallucinations in Large Language Models はコメントを受け付けていません

Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks

要約 私たちは、安全性を重視した最新の LLM であっても、単純な適応ジェイルブ … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG, stat.ML | Jailbreaking Leading Safety-Aligned LLMs with Simple Adaptive Attacks はコメントを受け付けていません