I.2.7」カテゴリーアーカイブ

From Internal Conflict to Contextual Adaptation of Language Models

要約 知識集約型の言語理解タスクでは、言語モデル (LM) が関連するコンテキス … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | From Internal Conflict to Contextual Adaptation of Language Models はコメントを受け付けていません

Machine Translation Hallucination Detection for Low and High Resource Languages using Large Language Models

要約 大規模な多言語機械翻訳システムの最近の進歩により、翻訳の精度が大幅に向上し … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Machine Translation Hallucination Detection for Low and High Resource Languages using Large Language Models はコメントを受け付けていません

Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners

要約 大規模言語モデル (LLM) は、優れたパフォーマンスと堅牢な演繹機能を備 … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Compensate Quantization Errors+: Quantized Models Are Inquisitive Learners はコメントを受け付けていません

Extracting Structured Insights from Financial News: An Augmented LLM Driven Approach

要約 金融ニュースは金融セクター全体の意思決定プロセスにおいて重要な役割を果たし … 続きを読む

カテゴリー: cs.CL, I.2.7 | Extracting Structured Insights from Financial News: An Augmented LLM Driven Approach はコメントを受け付けていません

Geolocation Predicting of Tweets Using BERT-Based Models

要約 この研究は、ツイート/ユーザーの地理位置予測タスクを解決し、テキストビッグ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Geolocation Predicting of Tweets Using BERT-Based Models はコメントを受け付けていません

Rapid Biomedical Research Classification: The Pandemic PACT Advanced Categorisation Engine

要約 このペーパーでは、Pandemic PACT Advanced Categ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Rapid Biomedical Research Classification: The Pandemic PACT Advanced Categorisation Engine はコメントを受け付けていません

On Initializing Transformers with Pre-trained Embeddings

要約 現在では、トランスフォーマーベースのモデルを最初からトレーニングするときに … 続きを読む

カテゴリー: cs.CL, I.2.7 | On Initializing Transformers with Pre-trained Embeddings はコメントを受け付けていません

The Role of Language Imbalance in Cross-lingual Generalisation: Insights from Cloned Language Experiments

要約 多言語性は、言語モデリングにおける最近の進歩を多様な言語コミュニティに拡張 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | The Role of Language Imbalance in Cross-lingual Generalisation: Insights from Cloned Language Experiments はコメントを受け付けていません

On the Effect of (Near) Duplicate Subwords in Language Modelling

要約 トークン化は、言語モデル (LM) の中核部分です。 これには、文字シーケ … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | On the Effect of (Near) Duplicate Subwords in Language Modelling はコメントを受け付けていません

Have Faith in Faithfulness: Going Beyond Circuit Overlap When Finding Model Mechanisms

要約 最近の言語モデル (LM) の解釈可能性に関する研究の多くは、特定のタスク … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | Have Faith in Faithfulness: Going Beyond Circuit Overlap When Finding Model Mechanisms はコメントを受け付けていません