cs.CL」カテゴリーアーカイブ

Building Better: Avoiding Pitfalls in Developing Language Resources when Data is Scarce

要約 言語は、さまざまな形で人々の生活に影響を与える象徴的な資本です(Bourd … 続きを読む

カテゴリー: cs.CL, cs.CY | Building Better: Avoiding Pitfalls in Developing Language Resources when Data is Scarce はコメントを受け付けていません

Unsupervised End-to-End Task-Oriented Dialogue with LLMs: The Power of the Noisy Channel

要約 トレーニング タスク指向の対話システムでは通常、API と対話するためにタ … 続きを読む

カテゴリー: cs.CL | Unsupervised End-to-End Task-Oriented Dialogue with LLMs: The Power of the Noisy Channel はコメントを受け付けていません

Sarcasm Detection in a Less-Resourced Language

要約 自然言語処理における皮肉検出タスクは、発話が皮肉であるかどうかを分類しよう … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.6 | Sarcasm Detection in a Less-Resourced Language はコメントを受け付けていません

WorldMedQA-V: a multilingual, multimodal medical examination dataset for multimodal language models evaluation

要約 マルチモーダル/ビジョン言語モデル (VLM) は世界中の医療現場で導入さ … 続きを読む

カテゴリー: cs.CL | WorldMedQA-V: a multilingual, multimodal medical examination dataset for multimodal language models evaluation はコメントを受け付けていません

CREAM: Consistency Regularized Self-Rewarding Language Models

要約 最近の自己報酬型大規模言語モデル (LLM) は、嗜好データに対する人によ … 続きを読む

カテゴリー: cs.CL, cs.LG | CREAM: Consistency Regularized Self-Rewarding Language Models はコメントを受け付けていません

ÚFAL CorPipe at CRAC 2022: Effectivity of Multilingual Models for Coreference Resolution

要約 多言語相互参照解決に関する CRAC 2022 共有タスクへの受賞作品につ … 続きを読む

カテゴリー: cs.CL | ÚFAL CorPipe at CRAC 2022: Effectivity of Multilingual Models for Coreference Resolution はコメントを受け付けていません

ÚFAL CorPipe at CRAC 2023: Larger Context Improves Multilingual Coreference Resolution

要約 多言語相互参照解決に関する CRAC 2023 共有タスクの受賞作品である … 続きを読む

カテゴリー: cs.CL | ÚFAL CorPipe at CRAC 2023: Larger Context Improves Multilingual Coreference Resolution はコメントを受け付けていません

Comparative Analysis of Extrinsic Factors for NER in French

要約 固有表現認識 (NER) は、構造化された情報を識別することを目的とした重 … 続きを読む

カテゴリー: cs.CL | Comparative Analysis of Extrinsic Factors for NER in French はコメントを受け付けていません

Energy and Carbon Considerations of Fine-Tuning BERT

要約 NLP コミュニティでは「事前トレーニングしてから微調整する」パラダイムが … 続きを読む

カテゴリー: cs.CL, cs.LG | Energy and Carbon Considerations of Fine-Tuning BERT はコメントを受け付けていません

StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples

要約 スタイル表現は、内容に関係なく、類似した書き方のテキストを近くに埋め込み、 … 続きを読む

カテゴリー: cs.CL, cs.LG | StyleDistance: Stronger Content-Independent Style Embeddings with Synthetic Parallel Examples はコメントを受け付けていません