68T50」カテゴリーアーカイブ

Pretraining and Updating Language- and Domain-specific Large Language Model: A Case Study in Japanese Business Domain

要約 これまでのいくつかの研究では、言語固有およびドメイン固有の大規模言語モデル … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL | Pretraining and Updating Language- and Domain-specific Large Language Model: A Case Study in Japanese Business Domain はコメントを受け付けていません

Prompt Tuned Embedding Classification for Multi-Label Industry Sector Allocation

要約 プロンプト チューニングは、大規模言語モデル (LLM) と呼ばれることが … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.0 | Prompt Tuned Embedding Classification for Multi-Label Industry Sector Allocation はコメントを受け付けていません

MetaCheckGPT — A Multi-task Hallucination Detector Using LLM Uncertainty and Meta-models

要約 大規模言語モデル (LLM) における幻覚は、最近重大な問題になっています … 続きを読む

カテゴリー: 68T07, 68T50, cs.AI, cs.CL, I.2.7 | MetaCheckGPT — A Multi-task Hallucination Detector Using LLM Uncertainty and Meta-models はコメントを受け付けていません

MetaCheckGPT — A Multi-task Hallucination Detection Using LLM Uncertainty and Meta-models

要約 この文書では、SemEval-2024 Task 6 コンテストで優勝した … 続きを読む

カテゴリー: 68T07, 68T50, cs.AI, cs.CL, I.2.7 | MetaCheckGPT — A Multi-task Hallucination Detection Using LLM Uncertainty and Meta-models はコメントを受け付けていません

PerkwE_COQA: enhance Persian Conversational Question Answering by combining contextual keyword extraction with Large Language Models

要約 スマートシティでは、生活の質を向上させるために住民の関与が必要です。 会話 … 続きを読む

カテゴリー: 68T07, 68T50, cs.AI, cs.CL, I.2.1 | PerkwE_COQA: enhance Persian Conversational Question Answering by combining contextual keyword extraction with Large Language Models はコメントを受け付けていません

Can Large Language Models Beat Wall Street? Unveiling the Potential of AI in Stock Selection

要約 本稿では、GPT-4の高度な推論を活用した、金融市場における銘柄選択のため … 続きを読む

カテゴリー: 68T07, 68T50, 91G10, 91G15, cs.AI, cs.CE, cs.CL, cs.LG, I.2.1, q-fin.CP | Can Large Language Models Beat Wall Street? Unveiling the Potential of AI in Stock Selection はコメントを受け付けていません

FLawN-T5: An Empirical Examination of Effective Instruction-Tuning Data Mixtures for Legal Reasoning

要約 命令のチューニングは、ユーザーとの直接対話に役立つ言語モデルを作成するため … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.LG, I.2 | FLawN-T5: An Empirical Examination of Effective Instruction-Tuning Data Mixtures for Legal Reasoning はコメントを受け付けていません

Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation

要約 スケーラブルなディープ モデルと大規模なデータセットの出現により、ニューラ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation はコメントを受け付けていません

Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation

要約 スケーラブルなディープ モデルと大規模なデータセットの出現により、ニューラ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Align-to-Distill: Trainable Attention Alignment for Knowledge Distillation in Neural Machine Translation はコメントを受け付けていません

Logits of API-Protected LLMs Leak Proprietary Information

要約 大規模言語モデル (LLM) の商用化により、独自モデルへの高レベル AP … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, cs.CR, cs.LG, I.2.7 | Logits of API-Protected LLMs Leak Proprietary Information はコメントを受け付けていません