cs.AI」カテゴリーアーカイブ

Distilling an End-to-End Voice Assistant Without Instruction Training Data

要約 SiriやGoogleアシスタントのような音声アシスタントは、通常、音声と … 続きを読む

カテゴリー: cs.AI, cs.CL | Distilling an End-to-End Voice Assistant Without Instruction Training Data はコメントを受け付けていません

DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life

要約 日常生活における意思決定のためにLLMのガイダンスを求めることが増えている … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | DailyDilemmas: Revealing Value Preferences of LLMs with Quandaries of Daily Life はコメントを受け付けていません

User-centric Immersive Communications in 6G: A Data-oriented Approach via Digital Twin

要約 この論文では、6Gにおける没入型通信(IC)のための新しいユーザー中心のサ … 続きを読む

カテゴリー: cs.AI, cs.NI | User-centric Immersive Communications in 6G: A Data-oriented Approach via Digital Twin はコメントを受け付けていません

Discovering Clues of Spoofed LM Watermarks

要約 LLM透かしは、LLMで生成されたテキストの所有権を示す有望な方法として注 … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.LG | Discovering Clues of Spoofed LM Watermarks はコメントを受け付けていません

HELMET: How to Evaluate Long-Context Language Models Effectively and Thoroughly

要約 ロングコンテクスト言語モデル(LCLM)を評価するためのベンチマークは数多 … 続きを読む

カテゴリー: cs.AI, cs.CL | HELMET: How to Evaluate Long-Context Language Models Effectively and Thoroughly はコメントを受け付けていません

VideoPhy: Evaluating Physical Commonsense for Video Generation

要約 インターネット規模のビデオデータの事前学習における最近の進歩により、幅広い … 続きを読む

カテゴリー: cs.AI, cs.CV, cs.LG | VideoPhy: Evaluating Physical Commonsense for Video Generation はコメントを受け付けていません

Lookback Lens: Detecting and Mitigating Contextual Hallucinations in Large Language Models Using Only Attention Maps

要約 ある文章を要約したり、質問に答えたりするよう求められると、大規模言語モデル … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Lookback Lens: Detecting and Mitigating Contextual Hallucinations in Large Language Models Using Only Attention Maps はコメントを受け付けていません

Selective Attention Improves Transformer

要約 注意のコンテキストにある不要な要素は、パフォーマンスを低下させる。我々は、 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Selective Attention Improves Transformer はコメントを受け付けていません

LLMs Know More Than They Show: On the Intrinsic Representation of LLM Hallucinations

要約 大規模言語モデル(LLM)は、事実誤認、偏り、推論の失敗など、「幻覚」と総 … 続きを読む

カテゴリー: 68T50, cs.AI, cs.CL, I.2.7 | LLMs Know More Than They Show: On the Intrinsic Representation of LLM Hallucinations はコメントを受け付けていません

SteerDiff: Steering towards Safe Text-to-Image Diffusion Models

要約 T2I(Text-to-image)拡散モデルは、テキストを正確に配置した … 続きを読む

カテゴリー: cs.AI, cs.CR, cs.CV | SteerDiff: Steering towards Safe Text-to-Image Diffusion Models はコメントを受け付けていません