cs.AI」カテゴリーアーカイブ

Are Generative AI Agents Effective Personalized Financial Advisors?

要約 大規模な言語モデルベースのエージェントは、パーソナライズされた会話のアドバ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.HC, cs.IR, q-fin.CP | Are Generative AI Agents Effective Personalized Financial Advisors? はコメントを受け付けていません

Understanding Layer Significance in LLM Alignment

要約 監視された微調整を介した大規模な言語モデル(LLM)を調整することは、特定 … 続きを読む

カテゴリー: cs.AI, cs.CL | Understanding Layer Significance in LLM Alignment はコメントを受け付けていません

DiVA-DocRE: A Discriminative and Voice-Aware Paradigm for Document-Level Relation Extraction

要約 テキスト理解と生成における大規模な言語モデル(LLM)の顕著な能力は、情報 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | DiVA-DocRE: A Discriminative and Voice-Aware Paradigm for Document-Level Relation Extraction はコメントを受け付けていません

Green Prompting

要約 大規模な言語モデル(LLM)は、検索エンジン、コード生成、テキスト作成にま … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Green Prompting はコメントを受け付けていません

Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models

要約 通常、人間のフィードバック(RLHF)からの強化学習を通じて、人間の好みに … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Bi-Factorial Preference Optimization: Balancing Safety-Helpfulness in Language Models はコメントを受け付けていません

On the Consistency of Multilingual Context Utilization in Retrieval-Augmented Generation

要約 大規模な言語モデル(LLMS)を使用した検索された生成(RAG)は、コーパ … 続きを読む

カテゴリー: cs.AI, cs.CL | On the Consistency of Multilingual Context Utilization in Retrieval-Augmented Generation はコメントを受け付けていません

NativQA Framework: Enabling LLMs with Native, Local, and Everyday Knowledge

要約 大規模な言語モデル(LLMS)の急速な進歩は、文化的バイアス、公平性、およ … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, F.2.2 | NativQA Framework: Enabling LLMs with Native, Local, and Everyday Knowledge はコメントを受け付けていません

Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems

要約 従来の推奨システムに対する会話型推奨システムの重要な特徴は、自然言語を使用 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.IR | Generating Usage-related Questions for Preference Elicitation in Conversational Recommender Systems はコメントを受け付けていません

Information-Theoretic Reward Decomposition for Generalizable RLHF

要約 一般化可能な報酬モデルは、人間のフィードバック(RLHF)からの強化学習に … 続きを読む

カテゴリー: cs.AI | Information-Theoretic Reward Decomposition for Generalizable RLHF はコメントを受け付けていません

Confidence Regularized Masked Language Modeling using Text Length

要約 入力テキストでランダムにマスクされた単語を予測するタスクであるマスクされた … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Confidence Regularized Masked Language Modeling using Text Length はコメントを受け付けていません