月別アーカイブ: 2024年6月

LACIE: Listener-Aware Finetuning for Confidence Calibration in Large Language Models

要約 質問に答えるとき、LLM は答えだけでなく、その答えが正しいという自信のレ … 続きを読む

カテゴリー: cs.AI, cs.CL | LACIE: Listener-Aware Finetuning for Confidence Calibration in Large Language Models はコメントを受け付けていません

Standards for Belief Representations in LLMs

要約 大規模言語モデル (LLM) がさまざまな領域にわたって顕著な能力を示し続 … 続きを読む

カテゴリー: cs.AI | Standards for Belief Representations in LLMs はコメントを受け付けていません

Direct Alignment of Language Models via Quality-Aware Self-Refinement

要約 人間のフィードバックからの強化学習 (RLHF) は、大規模言語モデル ( … 続きを読む

カテゴリー: cs.AI, cs.CL | Direct Alignment of Language Models via Quality-Aware Self-Refinement はコメントを受け付けていません

API Pack: A Massive Multi-Programming Language Dataset for API Call Generation

要約 大規模な言語モデルの API 呼び出し生成機能を向上させるために、100 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | API Pack: A Massive Multi-Programming Language Dataset for API Call Generation はコメントを受け付けていません

Target Networks and Over-parameterization Stabilize Off-policy Bootstrapping with Function Approximation

要約 ターゲット ネットワークと過剰パラメータ化された線形関数近似の組み合わせに … 続きを読む

カテゴリー: cs.AI, cs.LG | Target Networks and Over-parameterization Stabilize Off-policy Bootstrapping with Function Approximation はコメントを受け付けていません

Exploratory Preference Optimization: Harnessing Implicit Q*-Approximation for Sample-Efficient RLHF

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、言語モデルの調 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG, stat.ML | Exploratory Preference Optimization: Harnessing Implicit Q*-Approximation for Sample-Efficient RLHF はコメントを受け付けていません

Grammar-Aligned Decoding

要約 大規模言語モデル (LLM) は、プログラム コード、数式、整形式のマーク … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Grammar-Aligned Decoding はコメントを受け付けていません

Generalization or Memorization: Data Contamination and Trustworthy Evaluation for Large Language Models

要約 大規模言語モデル (LLM) の優れた機能に関する最近の声明は、通常、オー … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG, cs.SE | Generalization or Memorization: Data Contamination and Trustworthy Evaluation for Large Language Models はコメントを受け付けていません

Neural Network Verification with Branch-and-Bound for General Nonlinearities

要約 分枝限定 (BaB) は、ニューラル ネットワーク (NN) 検証に最も効 … 続きを読む

カテゴリー: cs.AI, cs.LG | Neural Network Verification with Branch-and-Bound for General Nonlinearities はコメントを受け付けていません

Recurrent neural networks: vanishing and exploding gradients are not the end of the story

要約 リカレント ニューラル ネットワーク (RNN) は、主に勾配の消失と爆発 … 続きを読む

カテゴリー: cs.AI, cs.LG, math.OC | Recurrent neural networks: vanishing and exploding gradients are not the end of the story はコメントを受け付けていません