投稿者「jarxiv」のアーカイブ

Judging the Judges: Can Large Vision-Language Models Fairly Evaluate Chart Comprehension and Reasoning?

要約 チャートは、人々がデータを理解し、推論するのを助けるため、遍在しています。 … 続きを読む

カテゴリー: cs.CL, cs.CV | Judging the Judges: Can Large Vision-Language Models Fairly Evaluate Chart Comprehension and Reasoning? はコメントを受け付けていません

LCES: Zero-shot Automated Essay Scoring via Pairwise Comparisons Using Large Language Models

要約 大規模な言語モデル(LLMS)の最近の進歩により、ゼロショット自動エッセイ … 続きを読む

カテゴリー: cs.AI, cs.CL | LCES: Zero-shot Automated Essay Scoring via Pairwise Comparisons Using Large Language Models はコメントを受け付けていません

Reassessing Graph Linearization for Sequence-to-sequence AMR Parsing: On the Advantages and Limitations of Triple-Based Encoding

要約 シーケンスからシーケンスモデルは、抽象的な意味表現をトレーニングするために … 続きを読む

カテゴリー: cs.CL | Reassessing Graph Linearization for Sequence-to-sequence AMR Parsing: On the Advantages and Limitations of Triple-Based Encoding はコメントを受け付けていません

Can (A)I Change Your Mind?

要約 大規模な言語モデル(LLMS)ベースの会話エージェントの日常生活への統合の … 続きを読む

カテゴリー: cs.CL | Can (A)I Change Your Mind? はコメントを受け付けていません

Are We Paying Attention to Her? Investigating Gender Disambiguation and Attention in Machine Translation

要約 現代のニューラル機械翻訳(NMT)システムの性別バイアスは多くの注目を集め … 続きを読む

カテゴリー: cs.CL | Are We Paying Attention to Her? Investigating Gender Disambiguation and Attention in Machine Translation はコメントを受け付けていません

Scaling Laws for Floating Point Quantization Training

要約 低精度トレーニングは、トレーニングと下流の推論コストの両方を削減するための … 続きを読む

カテゴリー: cs.AR, cs.CL, cs.LG | Scaling Laws for Floating Point Quantization Training はコメントを受け付けていません

Crossing Boundaries: Leveraging Semantic Divergences to Explore Cultural Novelty in Cooking Recipes

要約 ノベルティモデリングと検出は、自然言語処理(NLP)の中心的なトピックであ … 続きを読む

カテゴリー: cs.CL | Crossing Boundaries: Leveraging Semantic Divergences to Explore Cultural Novelty in Cooking Recipes はコメントを受け付けていません

Enhancing Thyroid Cytology Diagnosis with RAG-Optimized LLMs and Pa-thology Foundation Models

要約 人工知能(AI)の進歩は、検索された生成(RAG)およびドメイン固有の基礎 … 続きを読む

カテゴリー: cs.CL, q-bio.QM | Enhancing Thyroid Cytology Diagnosis with RAG-Optimized LLMs and Pa-thology Foundation Models はコメントを受け付けていません

Round and Round We Go! What makes Rotary Positional Encodings useful?

要約 位置エンコーディング(PES)は、トランスベースの大型言語モデル(LLMS … 続きを読む

カテゴリー: cs.CL, cs.LG | Round and Round We Go! What makes Rotary Positional Encodings useful? はコメントを受け付けていません

Automatic Task Detection and Heterogeneous LLM Speculative Decoding

要約 ドラフトモデルとターゲットモデルを組み合わせた投機的デコードは、大規模な言 … 続きを読む

カテゴリー: cs.CL, I.2.7 | Automatic Task Detection and Heterogeneous LLM Speculative Decoding はコメントを受け付けていません