cs.AI」カテゴリーアーカイブ

COBIAS: Assessing the Contextual Reliability of Bias Benchmarks for Language Models

要約 大規模な言語モデル(LLM)は、多くの場合、トレーニングされているWebデ … 続きを読む

カテゴリー: cs.AI, cs.CL | COBIAS: Assessing the Contextual Reliability of Bias Benchmarks for Language Models はコメントを受け付けていません

LLMs unlock new paths to monetizing exploits

要約 私たちは、大規模な言語モデル(LLM)がまもなくサイバー攻撃の経済を変える … 続きを読む

カテゴリー: cs.AI, cs.CR | LLMs unlock new paths to monetizing exploits はコメントを受け付けていません

Extracting Explainable Dates From Medical Images By Reverse-Engineering UNIX Timestamps

要約 日付は、多くの場合、非常に影響力のある医学的決定に貢献しますが、このデータ … 続きを読む

カテゴリー: cs.AI | Extracting Explainable Dates From Medical Images By Reverse-Engineering UNIX Timestamps はコメントを受け付けていません

ScholarMate: A Mixed-Initiative Tool for Qualitative Knowledge Work and Information Sensemaking

要約 大規模なドキュメントコレクションからの知識を統合することは、定性的研究と知 … 続きを読む

カテゴリー: cs.AI, cs.HC | ScholarMate: A Mixed-Initiative Tool for Qualitative Knowledge Work and Information Sensemaking はコメントを受け付けていません

Disentangling Reasoning and Knowledge in Medical Large Language Models

要約 大規模な言語モデル(LLMS)の医学的推論は、臨床医の診断思考をエミュレー … 続きを読む

カテゴリー: cs.AI, cs.CL | Disentangling Reasoning and Knowledge in Medical Large Language Models はコメントを受け付けていません

Exploratory Diffusion Model for Unsupervised Reinforcement Learning

要約 監視されていない強化学習(URL)は、報酬のない環境で多様な状態またはスキ … 続きを読む

カテゴリー: cs.AI, cs.LG | Exploratory Diffusion Model for Unsupervised Reinforcement Learning はコメントを受け付けていません

HelpSteer3-Preference: Open Human-Annotated Preference Data across Diverse Tasks and Languages

要約 優先データセットは、人間のフィードバック(RLHF)からの強化学習を備えた … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | HelpSteer3-Preference: Open Human-Annotated Preference Data across Diverse Tasks and Languages はコメントを受け付けていません

Automatic Reward Shaping from Confounded Offline Data

要約 人工知能の重要なタスクは、不明な環境でエージェントを制御するための効果的な … 続きを読む

カテゴリー: cs.AI, cs.LG | Automatic Reward Shaping from Confounded Offline Data はコメントを受け付けていません

Improving Assembly Code Performance with Large Language Models via Reinforcement Learning

要約 大規模な言語モデル(LLMS)は、幅広いプログラミングタスクで強力なパフォ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.PF, cs.PL, cs.SE | Improving Assembly Code Performance with Large Language Models via Reinforcement Learning はコメントを受け付けていません

MOSAAIC: Managing Optimization towards Shared Autonomy, Authority, and Initiative in Co-creation

要約 人間と共同創造的AIの間の適切なバランスを打つことは、計算の創造性に関する … 続きを読む

カテゴリー: cs.AI | MOSAAIC: Managing Optimization towards Shared Autonomy, Authority, and Initiative in Co-creation はコメントを受け付けていません