月別アーカイブ: 2024年1月

JustiLM: Few-shot Justification Generation for Explainable Fact-Checking of Real-world Claims

要約 正当化とは、事実確認において主張に割り当てられた真実性を裏付ける説明です。 … 続きを読む

カテゴリー: cs.CL | JustiLM: Few-shot Justification Generation for Explainable Fact-Checking of Real-world Claims はコメントを受け付けていません

A Content-Based Novelty Measure for Scholarly Publications: A Proof of Concept

要約 進化における遺伝子の突然変異に似た新規性は、学術の進歩の可能性をもたらしま … 続きを読む

カテゴリー: cs.CL, cs.DL | A Content-Based Novelty Measure for Scholarly Publications: A Proof of Concept はコメントを受け付けていません

Calpric: Inclusive and Fine-grain Labeling of Privacy Policies with Crowdsourcing and Active Learning

要約 プライバシー ポリシーに基づいて正確な深層学習モデルをトレーニングする際の … 続きを読む

カテゴリー: cs.CL, cs.CR, cs.HC, cs.LG | Calpric: Inclusive and Fine-grain Labeling of Privacy Policies with Crowdsourcing and Active Learning はコメントを受け付けていません

Incremental Extractive Opinion Summarization Using Cover Trees

要約 抽出的な意見の要約には、レビュー セット内で一般的な意見を捉えた代表的な文 … 続きを読む

カテゴリー: cs.CL, cs.LG | Incremental Extractive Opinion Summarization Using Cover Trees はコメントを受け付けていません

Dialogue for Prompting: a Policy-Gradient-Based Discrete Prompt Generation for Few-shot Learning

要約 プロンプトベースの事前トレーニング済み言語モデル (PLM) パラダイムは … 続きを読む

カテゴリー: cs.CL, cs.LG | Dialogue for Prompting: a Policy-Gradient-Based Discrete Prompt Generation for Few-shot Learning はコメントを受け付けていません

Enhancing Document-level Translation of Large Language Model via Translation Mixed-instructions

要約 機械翻訳用の既存の大規模言語モデル (LLM) は通常、文レベルの翻訳命令 … 続きを読む

カテゴリー: cs.CL | Enhancing Document-level Translation of Large Language Model via Translation Mixed-instructions はコメントを受け付けていません

DinoSR: Self-Distillation and Online Clustering for Self-supervised Speech Representation Learning

要約 この論文では、マスクされた言語モデリング、自己蒸留、オンライン クラスタリ … 続きを読む

カテゴリー: cs.CL | DinoSR: Self-Distillation and Online Clustering for Self-supervised Speech Representation Learning はコメントを受け付けていません

SD-HuBERT: Sentence-Level Self-Distillation Induces Syllabic Organization in HuBERT

要約 音声の自己教師あり学習 (SSL) におけるデータ駆動型の単位発見により、 … 続きを読む

カテゴリー: cs.CL, eess.AS | SD-HuBERT: Sentence-Level Self-Distillation Induces Syllabic Organization in HuBERT はコメントを受け付けていません

MARIO: MAth Reasoning with code Interpreter Output — A Reproducible Pipeline

要約 大規模言語モデル (LLM) では、自然言語理解タスクにおいて大幅な進歩が … 続きを読む

カテゴリー: cs.CL | MARIO: MAth Reasoning with code Interpreter Output — A Reproducible Pipeline はコメントを受け付けていません

Self-Supervised Models of Speech Infer Universal Articulatory Kinematics

要約 自己教師あり学習 (SSL) ベースの音声モデルは、さまざまな下流タスクで … 続きを読む

カテゴリー: cs.CL, eess.AS | Self-Supervised Models of Speech Infer Universal Articulatory Kinematics はコメントを受け付けていません