cs.CL」カテゴリーアーカイブ

Comparative analysis of subword tokenization approaches for Indian languages

要約 トークン化とは、マシンが処理しやすい小さな部品またはトークンにテキストを分 … 続きを読む

カテゴリー: cs.CL | Comparative analysis of subword tokenization approaches for Indian languages はコメントを受け付けていません

MPO: Multilingual Safety Alignment via Reward Gap Optimization

要約 大規模な言語モデル(LLM)は、世界中のAIアプリケーションの中心になりつ … 続きを読む

カテゴリー: cs.CL | MPO: Multilingual Safety Alignment via Reward Gap Optimization はコメントを受け付けていません

TTRL: Test-Time Reinforcement Learning

要約 このホワイトペーパーでは、大規模な言語モデル(LLM)のタスクを推論するた … 続きを読む

カテゴリー: cs.CL, cs.LG | TTRL: Test-Time Reinforcement Learning はコメントを受け付けていません

FoREST: Frame of Reference Evaluation in Spatial Reasoning Tasks

要約 空間的推論は、人間の知性の基本的な側面です。 空間認知の重要な概念の1つは … 続きを読む

カテゴリー: cs.CL | FoREST: Frame of Reference Evaluation in Spatial Reasoning Tasks はコメントを受け付けていません

Shadows in the Attention: Contextual Perturbation and Representation Drift in the Dynamics of Hallucination in LLMs

要約 幻覚 – もっともらしいが誤った出力 – は、大規 … 続きを読む

カテゴリー: cs.CL | Shadows in the Attention: Contextual Perturbation and Representation Drift in the Dynamics of Hallucination in LLMs はコメントを受け付けていません

Power-Law Decay Loss for Large Language Model Finetuning: Focusing on Information Sparsity to Enhance Generation Quality

要約 テキスト生成タスクの微調整段階では、標準的なクロスエントロピー損失はすべて … 続きを読む

カテゴリー: cs.CL, cs.LG | Power-Law Decay Loss for Large Language Model Finetuning: Focusing on Information Sparsity to Enhance Generation Quality はコメントを受け付けていません

UNCLE: Uncertainty Expressions in Long-Form Generation

要約 大規模な言語モデル(LLM)は、特に長期の世代では幻覚を起こしやすいです。 … 続きを読む

カテゴリー: cs.CL | UNCLE: Uncertainty Expressions in Long-Form Generation はコメントを受け付けていません

PIIvot: A Lightweight NLP Anonymization Framework for Question-Anchored Tutoring Dialogues

要約 個人的に識別可能な情報(PII)匿名化は、多くのオープンサイエンスデータ共 … 続きを読む

カテゴリー: cs.CL | PIIvot: A Lightweight NLP Anonymization Framework for Question-Anchored Tutoring Dialogues はコメントを受け付けていません

In-Context Watermarks for Large Language Models

要約 機密アプリケーションのための大規模な言語モデル(LLMS)の使用の増加は、 … 続きを読む

カテゴリー: cs.CL | In-Context Watermarks for Large Language Models はコメントを受け付けていません

Towards Better Understanding of Program-of-Thought Reasoning in Cross-Lingual and Multilingual Environments

要約 大規模な言語モデル(LLM)にはマルチステップの推論が不可欠ですが、多言語 … 続きを読む

カテゴリー: cs.CL | Towards Better Understanding of Program-of-Thought Reasoning in Cross-Lingual and Multilingual Environments はコメントを受け付けていません