cs.AI」カテゴリーアーカイブ

Improving Semantic Understanding in Speech Language Models via Brain-tuning

要約 音声言語モデルは、自然言語に対する人間の脳の反応と印象的な程度まで整合して … 続きを読む

カテゴリー: cs.AI, cs.CL | Improving Semantic Understanding in Speech Language Models via Brain-tuning はコメントを受け付けていません

Vibration-Assisted Hysteresis Mitigation for Achieving High Compensation Efficiency

要約 腱鞘のメカニズム(TSM)は、低侵襲外科(MIS)アプリケーションで広く使 … 続きを読む

カテゴリー: cs.AI, cs.RO | Vibration-Assisted Hysteresis Mitigation for Achieving High Compensation Efficiency はコメントを受け付けていません

Improving Oil Slick Trajectory Simulations with Bayesian Optimization

要約 油流出軌道の正確なシミュレーションは、実務家の対応をサポートし、環境的およ … 続きを読む

カテゴリー: cs.AI, G.3, physics.ao-ph | Improving Oil Slick Trajectory Simulations with Bayesian Optimization はコメントを受け付けていません

Simulating Human-like Daily Activities with Desire-driven Autonomy

要約 欲望は、人間が複雑な世界と自律的に相互作用するように動機付けます。 対照的 … 続きを読む

カテゴリー: cs.AI | Simulating Human-like Daily Activities with Desire-driven Autonomy はコメントを受け付けていません

Large Language Models are Powerful EHR Encoders

要約 電子健康記録(EHR)は臨床的予測の豊富な可能性を提供しますが、それらの固 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Large Language Models are Powerful EHR Encoders はコメントを受け付けていません

Shifting Power: Leveraging LLMs to Simulate Human Aversion in ABMs of Bilateral Financial Exchanges, A bond market study

要約 政府の債券のような二国間市場には、市場メーカー(MMS)とクライアントの間 … 続きを読む

カテゴリー: cs.AI, cs.MA, q-fin.TR | Shifting Power: Leveraging LLMs to Simulate Human Aversion in ABMs of Bilateral Financial Exchanges, A bond market study はコメントを受け付けていません

From homeostasis to resource sharing: Biologically and economically aligned multi-objective multi-agent AI safety benchmarks

要約 安全で整列したエージェントAIシステムを開発するには、包括的な経験的テスト … 続きを読む

カテゴリー: cs.AI, cs.MA | From homeostasis to resource sharing: Biologically and economically aligned multi-objective multi-agent AI safety benchmarks はコメントを受け付けていません

Prime Convolutional Model: Breaking the Ground for Theoretical Explainability

要約 この論文では、説明可能なAIに対する新しい理論的アプローチを提案します。 … 続きを読む

カテゴリー: cs.AI, cs.LG | Prime Convolutional Model: Breaking the Ground for Theoretical Explainability はコメントを受け付けていません

Implicit Bias in LLMs: A Survey

要約 開発者によるGuardRailsの実装により、大規模な言語モデル(LLM) … 続きを読む

カテゴリー: cs.AI, cs.CL | Implicit Bias in LLMs: A Survey はコメントを受け付けていません

IterPref: Focal Preference Learning for Code Generation via Iterative Debugging

要約 優先学習は、相対的な品質比較を活用することにより、監視された微調整を超えて … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | IterPref: Focal Preference Learning for Code Generation via Iterative Debugging はコメントを受け付けていません