cs.CL」カテゴリーアーカイブ

Towards Interpretable Sequence Continuation: Analyzing Shared Circuits in Large Language Models

要約 トランスフォーマー モデルは言語タスクに対して強力な機能を発揮しますが、そ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Towards Interpretable Sequence Continuation: Analyzing Shared Circuits in Large Language Models はコメントを受け付けていません

Do LLMs have Consistent Values?

要約 価値観は人間の行動の根底にある基本的な原動力です。 Large Langu … 続きを読む

カテゴリー: cs.AI, cs.CL | Do LLMs have Consistent Values? はコメントを受け付けていません

LLMs left, right, and center: Assessing GPT’s capabilities to label political bias from web domains

要約 この研究では、最先端の大規模言語モデルである OpenAI の GPT-4 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY | LLMs left, right, and center: Assessing GPT’s capabilities to label political bias from web domains はコメントを受け付けていません

Rapid Biomedical Research Classification: The Pandemic PACT Advanced Categorisation Engine

要約 このペーパーでは、Pandemic PACT Advanced Categ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | Rapid Biomedical Research Classification: The Pandemic PACT Advanced Categorisation Engine はコメントを受け付けていません

The Vision of Autonomic Computing: Can LLMs Make It a Reality?

要約 20 年以上前に提案されたオートノミック コンピューティング (ACV) … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.DC, cs.MA, cs.SE | The Vision of Autonomic Computing: Can LLMs Make It a Reality? はコメントを受け付けていません

System-1.x: Learning to Balance Fast and Slow Planning with Language Models

要約 言語モデルを使用すると、長期計画の問題を 2 つの異なるモードで解決できま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | System-1.x: Learning to Balance Fast and Slow Planning with Language Models はコメントを受け付けていません

Check-Eval: A Checklist-based Approach for Evaluating Text Quality

要約 大規模言語モデル (LLM) によって生成されたテキストの品質を評価するこ … 続きを読む

カテゴリー: cs.AI, cs.CL | Check-Eval: A Checklist-based Approach for Evaluating Text Quality はコメントを受け付けていません

Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts

要約 大規模言語モデル (LLM) は、少数のサンプルを観察するだけでタスクを効 … 続きを読む

カテゴリー: cs.AI, cs.CL | Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts はコメントを受け付けていません

ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities

要約 この研究では、長いコンテキストの理解と検索拡張生成 (RAG) において、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR, cs.LG | ChatQA 2: Bridging the Gap to Proprietary LLMs in Long Context and RAG Capabilities はコメントを受け付けていません

Superposition Prompting: Improving and Accelerating Retrieval-Augmented Generation

要約 大規模言語モデル (LLM) は成功を収めていますが、特に長いコンテキスト … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Superposition Prompting: Improving and Accelerating Retrieval-Augmented Generation はコメントを受け付けていません