投稿者「jarxiv」のアーカイブ

Multi-modal Integration Analysis of Alzheimer’s Disease Using Large Language Models and Knowledge Graphs

要約 大規模な言語モデル(LLMS)と知識グラフを使用したアルツハイマー病(AD … 続きを読む

カテゴリー: cs.AI, cs.LG, I.2.1 | Multi-modal Integration Analysis of Alzheimer’s Disease Using Large Language Models and Knowledge Graphs はコメントを受け付けていません

dMel: Speech Tokenization made Simple

要約 大規模な言語モデルは、膨大なテキストデータに自己監視された事前供与を活用す … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | dMel: Speech Tokenization made Simple はコメントを受け付けていません

Scalable Defense against In-the-wild Jailbreaking Attacks with Safety Context Retrieval

要約 大規模な言語モデル(LLM)は、侵入攻撃に対して脆弱であることが知られてお … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | Scalable Defense against In-the-wild Jailbreaking Attacks with Safety Context Retrieval はコメントを受け付けていません

Improving planning and MBRL with temporally-extended actions

要約 連続時間システムは、多くの場合、個別のタイムダイナミクスを使用してモデル化 … 続きを読む

カテゴリー: cs.AI, cs.LG, cs.RO | Improving planning and MBRL with temporally-extended actions はコメントを受け付けていません

How Managers Perceive AI-Assisted Conversational Training for Workplace Communication

要約 効果的な職場コミュニケーションは管理の成功に不可欠ですが、多くのマネージャ … 続きを読む

カテゴリー: cs.AI, cs.HC | How Managers Perceive AI-Assisted Conversational Training for Workplace Communication はコメントを受け付けていません

SWE-smith: Scaling Data for Software Engineering Agents

要約 ソフトウェアエンジニアリングの言語モデル(LMS)の最近の進歩にもかかわら … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SE | SWE-smith: Scaling Data for Software Engineering Agents はコメントを受け付けていません

Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space

要約 人間の認知は、通常、個別の言語トークンを厳密に使用するのではなく、抽象的で … 続きを読む

カテゴリー: cs.AI, cs.CL | Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space はコメントを受け付けていません

Large Language Models as Computable Approximations to Solomonoff Induction

要約 大規模な言語モデル(LLMS)の急速な進歩は、経験的な成功を説明するために … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Large Language Models as Computable Approximations to Solomonoff Induction はコメントを受け付けていません

A Modular Approach for Clinical SLMs Driven by Synthetic Data with Pre-Instruction Tuning, Model Merging, and Clinical-Tasks Alignment

要約 GPT-4などの大規模な言語モデルの高い計算コストと遅延により、臨床環境で … 続きを読む

カテゴリー: cs.AI, cs.CL | A Modular Approach for Clinical SLMs Driven by Synthetic Data with Pre-Instruction Tuning, Model Merging, and Clinical-Tasks Alignment はコメントを受け付けていません

Spatiotemporal Field Generation Based on Hybrid Mamba-Transformer with Physics-informed Fine-tuning

要約 この研究は、データ駆動型の訓練されたモデルを通じて時空間的物理フィールドの … 続きを読む

カテゴリー: cs.AI, cs.LG, physics.comp-ph | Spatiotemporal Field Generation Based on Hybrid Mamba-Transformer with Physics-informed Fine-tuning はコメントを受け付けていません