投稿者「jarxiv」のアーカイブ

Near-Polynomially Competitive Active Logistic Regression

要約 実現可能な設定でのアクティブなロジスティック回帰の問題に対処します。 アク … 続きを読む

カテゴリー: cs.LG | Near-Polynomially Competitive Active Logistic Regression はコメントを受け付けていません

Spin glass model of in-context learning

要約 大規模な言語モデルは、驚くべきコンテキストの学習能力を示しています。プロン … 続きを読む

カテゴリー: cond-mat.dis-nn, cond-mat.stat-mech, cs.AI, cs.CL | Spin glass model of in-context learning はコメントを受け付けていません

Enhancing Multilingual Sentiment Analysis with Explainability for Sinhala, English, and Code-Mixed Content

要約 センチメント分析は、顧客のフィードバックが英語、シンハラ、シングリッシュ、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Enhancing Multilingual Sentiment Analysis with Explainability for Sinhala, English, and Code-Mixed Content はコメントを受け付けていません

Q-FAKER: Query-free Hard Black-box Attack via Controlled Generation

要約 言語モデルの脆弱性を検証するために、多くの敵対的な攻撃アプローチが提案され … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | Q-FAKER: Query-free Hard Black-box Attack via Controlled Generation はコメントを受け付けていません

Finding Flawed Fictions: Evaluating Complex Reasoning in Language Models via Plot Hole Detection

要約 物語は人間の経験の基本的な側面です。 ストーリーと深く関与し、物語の世界の … 続きを読む

カテゴリー: cs.CL | Finding Flawed Fictions: Evaluating Complex Reasoning in Language Models via Plot Hole Detection はコメントを受け付けていません

DETAM: Defending LLMs Against Jailbreak Attacks via Targeted Attention Modification

要約 大規模な言語モデル(LLM)の広範な採用により、脱獄攻撃はますます差し迫っ … 続きを読む

カテゴリー: cs.CL | DETAM: Defending LLMs Against Jailbreak Attacks via Targeted Attention Modification はコメントを受け付けていません

Token-Level Density-Based Uncertainty Quantification Methods for Eliciting Truthfulness of Large Language Models

要約 不確実性の定量化(UQ)は、大規模な言語モデル(LLM)から真実の答えを引 … 続きを読む

カテゴリー: cs.CL | Token-Level Density-Based Uncertainty Quantification Methods for Eliciting Truthfulness of Large Language Models はコメントを受け付けていません

Improving Generalization in Intent Detection: GRPO with Reward-Based Curriculum Sampling

要約 タスク指向のダイアログ(TOD)システムの重要なコンポーネントである意図検 … 続きを読む

カテゴリー: cs.CL | Improving Generalization in Intent Detection: GRPO with Reward-Based Curriculum Sampling はコメントを受け付けていません

Continual Pre-Training is (not) What You Need in Domain Adaption

要約 法的大規模な言語モデル(LLM)の最近の進歩は、タスクを自動化し、研究の精 … 続きを読む

カテゴリー: cs.CL | Continual Pre-Training is (not) What You Need in Domain Adaption はコメントを受け付けていません

Can LLMs assist with Ambiguity? A Quantitative Evaluation of various Large Language Models on Word Sense Disambiguation

要約 あいまいな言葉は、現代のデジタルコミュニケーションでしばしば見られます。 … 続きを読む

カテゴリー: cs.CL | Can LLMs assist with Ambiguity? A Quantitative Evaluation of various Large Language Models on Word Sense Disambiguation はコメントを受け付けていません