投稿者「jarxiv」のアーカイブ

Positional Fragility in LLMs: How Offset Effects Reshape Our Understanding of Memorization Risks

要約 大規模な言語モデルは、著作権違反のリスクをもたらすトレーニングデータの一部 … 続きを読む

カテゴリー: cs.CL | Positional Fragility in LLMs: How Offset Effects Reshape Our Understanding of Memorization Risks はコメントを受け付けていません

Nonlinear second-order dynamics describe labial constriction trajectories across languages and contexts

要約 英語とマンダリンでの / b /および / m /の生成中の唇収縮軌跡のダ … 続きを読む

カテゴリー: cs.CL, nlin.AO | Nonlinear second-order dynamics describe labial constriction trajectories across languages and contexts はコメントを受け付けていません

EvolveSearch: An Iterative Self-Evolving Search Agent

要約 大規模な言語モデル(LLMS)の急速な進歩により、検索エンジンやWebブラ … 続きを読む

カテゴリー: cs.CL | EvolveSearch: An Iterative Self-Evolving Search Agent はコメントを受け付けていません

Closed-Form Training Dynamics Reveal Learned Features and Linear Structure in Word2Vec-like Models

要約 Word2vecなどの自己監視ワード埋め込みアルゴリズムは、言語モデリング … 続きを読む

カテゴリー: cs.CL, cs.LG, stat.ML | Closed-Form Training Dynamics Reveal Learned Features and Linear Structure in Word2Vec-like Models はコメントを受け付けていません

Reasoning Is Not All You Need: Examining LLMs for Multi-Turn Mental Health Conversations

要約 メンタルヘルスケアへのアクセスが制限され、待ち時間の延長、大規模な言語モデ … 続きを読む

カテゴリー: cs.CL | Reasoning Is Not All You Need: Examining LLMs for Multi-Turn Mental Health Conversations はコメントを受け付けていません

Multi-MLLM Knowledge Distillation for Out-of-Context News Detection

要約 マルチモーダルのコンテキスト外ニュースは、元のコンテキストの外で画像が使用 … 続きを読む

カテゴリー: cs.CL, cs.MM | Multi-MLLM Knowledge Distillation for Out-of-Context News Detection はコメントを受け付けていません

Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs

要約 感情の理解には、基本的なタスク(感情/感情分類など)および高度なタスク(皮 … 続きを読む

カテゴリー: cs.CL | Emotion-o1: Adaptive Long Reasoning for Emotion Understanding in LLMs はコメントを受け付けていません

Do Large Language Models Think Like the Brain? Sentence-Level Evidence from fMRI and Hierarchical Embeddings

要約 大規模な言語モデル(LLMS)と人間の脳が同様の計算原理に合わせて収束する … 続きを読む

カテゴリー: cs.CL, q-bio.NC | Do Large Language Models Think Like the Brain? Sentence-Level Evidence from fMRI and Hierarchical Embeddings はコメントを受け付けていません

TLUE: A Tibetan Language Understanding Evaluation Benchmark

要約 大規模な言語モデル(LLM)は近年大きな進歩を遂げていますが、チベット語な … 続きを読む

カテゴリー: cs.CL | TLUE: A Tibetan Language Understanding Evaluation Benchmark はコメントを受け付けていません

Less, but Better: Efficient Multilingual Expansion for LLMs via Layer-wise Mixture-of-Experts

要約 既存の大型言語モデル(LLMS)の新しい言語を継続的に拡大することは、強力 … 続きを読む

カテゴリー: cs.CL | Less, but Better: Efficient Multilingual Expansion for LLMs via Layer-wise Mixture-of-Experts はコメントを受け付けていません