月別アーカイブ: 2024年8月

Extracting Sentence Embeddings from Pretrained Transformer Models

要約 背景/はじめに: 事前トレーニングされたトランスフォーマー モデルは、多く … 続きを読む

カテゴリー: 68T05, 68T07, 68T50, cs.CL, cs.IR, cs.LG, I.2.6, stat.ML | Extracting Sentence Embeddings from Pretrained Transformer Models はコメントを受け付けていません

AgentCourt: Simulating Court with Adversarial Evolvable Lawyer Agents

要約 この論文では、法廷プロセス全体をシミュレートする AgentCourt と … 続きを読む

カテゴリー: cs.AI, cs.CL | AgentCourt: Simulating Court with Adversarial Evolvable Lawyer Agents はコメントを受け付けていません

EUvsDisinfo: a Dataset for Multilingual Detection of Pro-Kremlin Disinformation in News Articles

要約 この作品では、親クレムリンのテーマに関連する信頼できる偽情報記事の多言語デ … 続きを読む

カテゴリー: cs.CL, cs.LG | EUvsDisinfo: a Dataset for Multilingual Detection of Pro-Kremlin Disinformation in News Articles はコメントを受け付けていません

MIDAS: Multi-level Intent, Domain, And Slot Knowledge Distillation for Multi-turn NLU

要約 大規模言語モデル (LLM) は、一貫した文脈に関連したテキストを生成でき … 続きを読む

カテゴリー: cs.CL | MIDAS: Multi-level Intent, Domain, And Slot Knowledge Distillation for Multi-turn NLU はコメントを受け付けていません

KOALA: Enhancing Speculative Decoding for LLM via Multi-Layer Draft Heads with Adversarial Learning

要約 大規模言語モデル (LLM) は、自己回帰デコードの性質により、高い推論遅 … 続きを読む

カテゴリー: cs.CL | KOALA: Enhancing Speculative Decoding for LLM via Multi-Layer Draft Heads with Adversarial Learning はコメントを受け付けていません

P/D-Serve: Serving Disaggregated Large Language Model at Scale

要約 信頼性の高いパフォーマンスで数万台の xPU デバイス (GPU または … 続きを読む

カテゴリー: cs.CL, cs.DC, cs.LG | P/D-Serve: Serving Disaggregated Large Language Model at Scale はコメントを受け付けていません

Large Language Models are Few-Shot Training Example Generators: A Case Study in Fallacy Recognition

要約 誤謬を認識することは、さまざまな領域にわたる議論の質と妥当性を確保するため … 続きを読む

カテゴリー: cs.CL | Large Language Models are Few-Shot Training Example Generators: A Case Study in Fallacy Recognition はコメントを受け付けていません

Covert Bias: The Severity of Social Views’ Unalignment Towards Implicit and Explicit Opinion

要約 最近、バイアスを特定するためのさまざまなアプローチが研究されていますが、視 … 続きを読む

カテゴリー: cs.CL, cs.CY | Covert Bias: The Severity of Social Views’ Unalignment Towards Implicit and Explicit Opinion はコメントを受け付けていません

Quantifying Memorization and Detecting Training Data of Pre-trained Language Models using Japanese Newspaper

要約 主要な事前トレーニング済み言語モデル (PLM) は、トレーニング データ … 続きを読む

カテゴリー: cs.CL | Quantifying Memorization and Detecting Training Data of Pre-trained Language Models using Japanese Newspaper はコメントを受け付けていません

mhGPT: A Lightweight Generative Pre-Trained Transformer for Mental Health Text Analysis

要約 この論文では、メンタルヘルス関連のソーシャル メディアと PubMed の … 続きを読む

カテゴリー: cs.CL | mhGPT: A Lightweight Generative Pre-Trained Transformer for Mental Health Text Analysis はコメントを受け付けていません