cs.CL」カテゴリーアーカイブ

A Survey on Personalized Alignment — The Missing Piece for Large Language Models in Real-World Applications

要約 大規模な言語モデル(LLMS)は顕著な能力を実証していますが、実際のアプリ … 続きを読む

カテゴリー: cs.CL | A Survey on Personalized Alignment — The Missing Piece for Large Language Models in Real-World Applications はコメントを受け付けていません

KTCR: Improving Implicit Hate Detection with Knowledge Transfer driven Concept Refinement

要約 新たな社会運動や政治的出来事によって駆動される社会的および政治的文脈の絶え … 続きを読む

カテゴリー: cs.CL | KTCR: Improving Implicit Hate Detection with Knowledge Transfer driven Concept Refinement はコメントを受け付けていません

In-game Toxic Language Detection: Shared Task and Attention Residuals

要約 ゲーム内の有毒言語は、ゲーム業界とコミュニティのホットポテトになります。 … 続きを読む

カテゴリー: cs.CL | In-game Toxic Language Detection: Shared Task and Attention Residuals はコメントを受け付けていません

FsPONER: Few-shot Prompt Optimization for Named Entity Recognition in Domain-specific Scenarios

要約 大規模な言語モデル(LLMS)は、名前付きエンティティ認識(NER)タスク … 続きを読む

カテゴリー: cs.CL, cs.IR | FsPONER: Few-shot Prompt Optimization for Named Entity Recognition in Domain-specific Scenarios はコメントを受け付けていません

Enabling Auditory Large Language Models for Automatic Speech Quality Evaluation

要約 音声品質評価では、通常、平均意見スコア(MOS)やスピーカーの類似性(SI … 続きを読む

カテゴリー: cs.CL, cs.SD, eess.AS | Enabling Auditory Large Language Models for Automatic Speech Quality Evaluation はコメントを受け付けていません

TWICE: What Advantages Can Low-Resource Domain-Specific Embedding Model Bring? — A Case Study on Korea Financial Texts

要約 埋め込みモデルのドメイン特異性は、効果的なパフォーマンスに重要です。 ただ … 続きを読む

カテゴリー: cs.CL, q-fin.CP | TWICE: What Advantages Can Low-Resource Domain-Specific Embedding Model Bring? — A Case Study on Korea Financial Texts はコメントを受け付けていません

Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs

要約 大規模な言語モデル(LLMS)は、大規模なテキストコーパスを事前に移動する … 続きを読む

カテゴリー: cs.CL, cs.LG | Towards Robust and Parameter-Efficient Knowledge Unlearning for LLMs はコメントを受け付けていません

LLMs Lost in Translation: M-ALERT uncovers Cross-Linguistic Safety Gaps

要約 安全なアクセスと言語の多様性の両方を確保するためには、複数の言語にわたって … 続きを読む

カテゴリー: cs.CL | LLMs Lost in Translation: M-ALERT uncovers Cross-Linguistic Safety Gaps はコメントを受け付けていません

Light-R1: Curriculum SFT, DPO and RL for Long COT from Scratch and Beyond

要約 このペーパーでは、再現可能で費用対効果の高い方法論を使用して長い推論モデル … 続きを読む

カテゴリー: cs.CL, cs.LG | Light-R1: Curriculum SFT, DPO and RL for Long COT from Scratch and Beyond はコメントを受け付けていません

Krutrim LLM: A Novel Tokenization Strategy for Multilingual Indic Languages with Petabyte-Scale Data Processing

要約 多言語インドの大規模な言語モデルを開発するためのデータ準備に対する新しいア … 続きを読む

カテゴリー: cs.CL | Krutrim LLM: A Novel Tokenization Strategy for Multilingual Indic Languages with Petabyte-Scale Data Processing はコメントを受け付けていません