cs.CL」カテゴリーアーカイブ

Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement

要約 大規模言語モデル(LLM)を用いたパーソナライズされたインタラクションに対 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement はコメントを受け付けていません

NSmark: Null Space Based Black-box Watermarking Defense Framework for Language Models

要約 言語モデル(LM)は、保護が必要な重要な知的財産(IP)として浮上している … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR | NSmark: Null Space Based Black-box Watermarking Defense Framework for Language Models はコメントを受け付けていません

Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG

要約 大規模言語モデル(LLM)は、人間のようなテキスト生成と自然言語理解を可能 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Agentic Retrieval-Augmented Generation: A Survey on Agentic RAG はコメントを受け付けていません

Retrieval of Temporal Event Sequences from Textual Descriptions

要約 テキスト記述から時間的イベントシーケンスを検索することは、電子商取引行動の … 続きを読む

カテゴリー: cs.CL, cs.IR | Retrieval of Temporal Event Sequences from Textual Descriptions はコメントを受け付けていません

MS-HuBERT: Mitigating Pre-training and Inference Mismatch in Masked Language Modelling methods for learning Speech Representations

要約 近年、生の音声からハイレベルな情報を学習する自己教師付き事前学習法が大きな … 続きを読む

カテゴリー: cs.CL | MS-HuBERT: Mitigating Pre-training and Inference Mismatch in Masked Language Modelling methods for learning Speech Representations はコメントを受け付けていません

GPT as a Monte Carlo Language Tree: A Probabilistic Perspective

要約 GPTに代表される大規模言語モデル(LLM)は、大規模なウェブクロールデー … 続きを読む

カテゴリー: cs.CL | GPT as a Monte Carlo Language Tree: A Probabilistic Perspective はコメントを受け付けていません

CollabEdit: Towards Non-destructive Collaborative Knowledge Editing

要約 大規模言語モデル(LLM)の協調学習は、効率性とプライバシーを保証するため … 続きを読む

カテゴリー: cs.CL, cs.CY | CollabEdit: Towards Non-destructive Collaborative Knowledge Editing はコメントを受け付けていません

TIS-DPO: Token-level Importance Sampling for Direct Preference Optimization With Estimated Weights

要約 直接選好最適化(Direct Preference Optimizatio … 続きを読む

カテゴリー: 68T50, cs.CL, I.2.7 | TIS-DPO: Token-level Importance Sampling for Direct Preference Optimization With Estimated Weights はコメントを受け付けていません

Role-Play Paradox in Large Language Models: Reasoning Performance Gains and Ethical Dilemmas

要約 大規模言語モデル(LLM)におけるロールプレイは、多様な認知的視点をシミュ … 続きを読む

カテゴリー: cs.CL | Role-Play Paradox in Large Language Models: Reasoning Performance Gains and Ethical Dilemmas はコメントを受け付けていません

ConSim: Measuring Concept-Based Explanations’ Effectiveness with Automated Simulatability

要約 概念に基づく説明は、複雑なモデル計算を人間が理解できる概念にマッピングする … 続きを読む

カテゴリー: cs.CL | ConSim: Measuring Concept-Based Explanations’ Effectiveness with Automated Simulatability はコメントを受け付けていません