I.2.7」カテゴリーアーカイブ

Unveiling Safety Vulnerabilities of Large Language Models

要約 大規模な言語モデルが普及するにつれて、有害または不適切な応答の可能性が懸念 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, I.2.7 | Unveiling Safety Vulnerabilities of Large Language Models はコメントを受け付けていません

In-Context Learning for Knowledge Base Question Answering for Unmanned Systems based on Large Language Models

要約 Knowledge Base Question Answering (KB … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | In-Context Learning for Knowledge Base Question Answering for Unmanned Systems based on Large Language Models はコメントを受け付けていません

Indo LEGO-ABSA: A Multitask Generative Aspect Based Sentiment Analysis for Indonesian Language

要約 アスペクトベースの感情分析は、自然言語処理における手法の1つで、エンティテ … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Indo LEGO-ABSA: A Multitask Generative Aspect Based Sentiment Analysis for Indonesian Language はコメントを受け付けていません

Guiding Language Models of Code with Global Context using Monitors

要約 コードの言語モデル(LM)は、周囲のコードが十分なコンテキストを提供してい … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, cs.PL, cs.SE, I.2.7 | Guiding Language Models of Code with Global Context using Monitors はコメントを受け付けていません

Post Turing: Mapping the landscape of LLM Evaluation

要約 急速に進化する大規模言語モデル(Large Language Models … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Post Turing: Mapping the landscape of LLM Evaluation はコメントを受け付けていません

Breaking the Token Barrier: Chunking and Convolution for Efficient Long Text Classification with BERT

要約 トランスフォーマーベースのモデル、特に BERT は、さまざまな NLP … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Breaking the Token Barrier: Chunking and Convolution for Efficient Long Text Classification with BERT はコメントを受け付けていません

Topological Parallax: A Geometric Specification for Deep Perception Models

要約 AI システムの安全性と堅牢性を確保するために、トレーニング済みモデルと参 … 続きを読む

カテゴリー: 55N31, cs.LG, I.2.7, math.AT, stat.ML | Topological Parallax: A Geometric Specification for Deep Perception Models はコメントを受け付けていません

‘Honey, Tell Me What’s Wrong’, Global Explanation of Textual Discriminative Models through Cooperative Generation

要約 複雑な機械学習の普及により、モデルに依存しない説明アルゴリズムの重要性が高 … 続きを読む

カテゴリー: cs.CL, cs.LG, I.2.7 | ‘Honey, Tell Me What’s Wrong’, Global Explanation of Textual Discriminative Models through Cooperative Generation はコメントを受け付けていません

Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review

要約 このホワイト ペーパーでは、大規模言語モデル (LLM) の機能を解放する … 続きを読む

カテゴリー: cs.AI, cs.CL, I.2.7 | Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review はコメントを受け付けていません

Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty

要約 私たちは、言語モデルのサンプル効率を向上させることを目的とした BabyL … 続きを読む

カテゴリー: cs.CL, I.2.7 | Baby Llama: knowledge distillation from an ensemble of teachers trained on a small dataset with no performance penalty はコメントを受け付けていません