cs.CL」カテゴリーアーカイブ

CantonMT: Cantonese to English NMT Platform with Fine-Tuned Models Using Synthetic Back-Translation Data

要約 低リソース言語のニューラル機械翻訳 (NMT) は、NLP 研究者にとって … 続きを読む

カテゴリー: cs.AI, cs.CL | CantonMT: Cantonese to English NMT Platform with Fine-Tuned Models Using Synthetic Back-Translation Data はコメントを受け付けていません

InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification

要約 テキストの簡略化は、専門テキストを一般の人が理解しやすくすることを目的とし … 続きを読む

カテゴリー: cs.CL | InfoLossQA: Characterizing and Recovering Information Loss in Text Simplification はコメントを受け付けていません

MEDIQ: Question-Asking LLMs for Adaptive and Reliable Clinical Reasoning

要約 臨床推論のような一か八かの分野では、大規模言語モデル (LLM) を利用し … 続きを読む

カテゴリー: cs.AI, cs.CL | MEDIQ: Question-Asking LLMs for Adaptive and Reliable Clinical Reasoning はコメントを受け付けていません

Technical Language Processing for Telecommunications Specifications

要約 大規模言語モデル (LLM) は、より多様なコンテキストで継続的に適用され … 続きを読む

カテゴリー: cs.AI, cs.CL | Technical Language Processing for Telecommunications Specifications はコメントを受け付けていません

On Affine Homotopy between Language Encoders

要約 事前トレーニングされた言語エンコーダー (テキストをベクトルとして表す関数 … 続きを読む

カテゴリー: cs.CL, cs.LG | On Affine Homotopy between Language Encoders はコメントを受け付けていません

Translation Deserves Better: Analyzing Translation Artifacts in Cross-lingual Visual Question Answering

要約 さまざまな言語にわたって信頼性の高いビジュアル質問応答 (VQA) システ … 続きを読む

カテゴリー: cs.CL | Translation Deserves Better: Analyzing Translation Artifacts in Cross-lingual Visual Question Answering はコメントを受け付けていません

Extended Mind Transformers

要約 事前トレーニングされた言語モデルは一般的な知能と常識を示しますが、長い入力 … 続きを読む

カテゴリー: cs.CL, cs.LG | Extended Mind Transformers はコメントを受け付けていません

Probing the Category of Verbal Aspect in Transformer Language Models

要約 私たちは、事前学習済み言語モデル (PLM) がロシア語の言語的側面の文法 … 続きを読む

カテゴリー: cs.CL | Probing the Category of Verbal Aspect in Transformer Language Models はコメントを受け付けていません

Linguistic Fingerprint in Transformer Models: How Language Variation Influences Parameter Selection in Irony Detection

要約 この論文では、言語の多様性、感情分析、およびトランスフォーマー モデル ア … 続きを読む

カテゴリー: cs.AI, cs.CL | Linguistic Fingerprint in Transformer Models: How Language Variation Influences Parameter Selection in Irony Detection はコメントを受け付けていません

PACIT: Unlocking the Power of Examples for Better In-Context Instruction Tuning

要約 命令チューニングは、教師付き命令データを使用して微調整することにより、大規 … 続きを読む

カテゴリー: cs.CL | PACIT: Unlocking the Power of Examples for Better In-Context Instruction Tuning はコメントを受け付けていません