投稿者「jarxiv」のアーカイブ

Intrinsic Bias is Predicted by Pretraining Data and Correlates with Downstream Performance in Vision-Language Encoders

要約 最近の研究では、対照的な言語イメージ前トレーニング(CLIP)フレームワー … 続きを読む

カテゴリー: cs.AI | Intrinsic Bias is Predicted by Pretraining Data and Correlates with Downstream Performance in Vision-Language Encoders はコメントを受け付けていません

Quantum Adiabatic Generation of Human-Like Passwords

要約 自然言語処理用の生成人工知能(GENAI)(NLP)は、これまでに優勢なA … 続きを読む

カテゴリー: cs.AI, quant-ph | Quantum Adiabatic Generation of Human-Like Passwords はコメントを受け付けていません

PropMEND: Hypernetworks for Knowledge Propagation in LLMs

要約 大規模な言語モデル(LLMS)の知識編集手法は、後で再現可能な逐語的な知識 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | PropMEND: Hypernetworks for Knowledge Propagation in LLMs はコメントを受け付けていません

Can A Gamer Train A Mathematical Reasoning Model?

要約 大規模な言語モデル(LLM)は、数学的推論を含むさまざまなタスクで顕著なパ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Can A Gamer Train A Mathematical Reasoning Model? はコメントを受け付けていません

The Impact of Large Language Models on Open-source Innovation: Evidence from GitHub Copilot

要約 大規模な言語モデル(LLM)は、ガイド付き設定での個々の生産性を向上させる … 続きを読む

カテゴリー: cs.AI, cs.SE, D.2.7, econ.GN, q-fin.EC | The Impact of Large Language Models on Open-source Innovation: Evidence from GitHub Copilot はコメントを受け付けていません

Can LLMs Ground when they (Don’t) Know: A Study on Direct and Loaded Political Questions

要約 人間間のコミュニケーションは、会話の基礎に依存しており、対話者が完全な知識 … 続きを読む

カテゴリー: cs.AI, cs.CL | Can LLMs Ground when they (Don’t) Know: A Study on Direct and Loaded Political Questions はコメントを受け付けていません

IntTrajSim: Trajectory Prediction for Simulating Multi-Vehicle driving at Signalized Intersections

要約 トラフィックシミュレーターは、道路インフラストラクチャの運用効率を研究する … 続きを読む

カテゴリー: cs.AI, cs.LG | IntTrajSim: Trajectory Prediction for Simulating Multi-Vehicle driving at Signalized Intersections はコメントを受け付けていません

Towards Robust Deep Reinforcement Learning against Environmental State Perturbation

要約 ディープ補強学習(DRL)における敵対的な攻撃と堅牢性は、さまざまな脅威モ … 続きを読む

カテゴリー: cs.AI, cs.LG | Towards Robust Deep Reinforcement Learning against Environmental State Perturbation はコメントを受け付けていません

AI as Decision-Maker: Ethics and Risk Preferences of LLMs

要約 大規模な言語モデル(LLMS)は、AIの意思決定者として機能する際に驚くほ … 続きを読む

カテゴリー: cs.AI, cs.CY, cs.ET, cs.HC, econ.GN, q-fin.EC | AI as Decision-Maker: Ethics and Risk Preferences of LLMs はコメントを受け付けていません

AnnaAgent: Dynamic Evolution Agent System with Multi-Session Memory for Realistic Seeker Simulation

要約 AI主導のメンタルヘルスに実際の探求者を巻き込むというコストと倫理的懸念に … 続きを読む

カテゴリー: cs.AI, cs.CL | AnnaAgent: Dynamic Evolution Agent System with Multi-Session Memory for Realistic Seeker Simulation はコメントを受け付けていません