cs.CL」カテゴリーアーカイブ

VideoCLIP-XL: Advancing Long Description Understanding for Video CLIP Models

要約 対照的言語イメージ事前学習(CLIP)は広く研究され、多くのアプリケーショ … 続きを読む

カテゴリー: cs.CL, cs.CV, cs.MM | VideoCLIP-XL: Advancing Long Description Understanding for Video CLIP Models はコメントを受け付けていません

Unraveling the Truth: Do VLMs really Understand Charts? A Deep Dive into Consistency and Robustness

要約 図表質問応答(CQA)は、視覚言語理解の重要な分野である。しかし、この分野 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CV, cs.HC, cs.LG | Unraveling the Truth: Do VLMs really Understand Charts? A Deep Dive into Consistency and Robustness はコメントを受け付けていません

Unraveling Cross-Modality Knowledge Conflict in Large Vision-Language Models

要約 大規模視覚言語モデル(LVLM)は、マルチモーダル入力をキャプチャし、推論 … 続きを読む

カテゴリー: cs.CL, cs.CV | Unraveling Cross-Modality Knowledge Conflict in Large Vision-Language Models はコメントを受け付けていません

Tokenization Falling Short: On Subword Robustness in Large Language Models

要約 言語モデルは通常、生テキストを事前に定義された語彙からサブワード識別子のシ … 続きを読む

カテゴリー: cs.CL | Tokenization Falling Short: On Subword Robustness in Large Language Models はコメントを受け付けていません

Video Instruction Tuning With Synthetic Data

要約 動画ラージ・マルチモーダルモデル(LMM)の開発は、ウェブから大量の高品質 … 続きを読む

カテゴリー: cs.CL, cs.CV | Video Instruction Tuning With Synthetic Data はコメントを受け付けていません

StorySparkQA: Expert-Annotated QA Pairs with Real-World Knowledge for Children’s Story-Based Learning

要約 インタラクティブな絵本の読み聞かせは、一般的な親子活動であり、親は、絵本の … 続きを読む

カテゴリー: cs.CL | StorySparkQA: Expert-Annotated QA Pairs with Real-World Knowledge for Children’s Story-Based Learning はコメントを受け付けていません

Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge

要約 LLM-as-a-Judgeは、様々なベンチマークにおける評価手法として広 … 続きを読む

カテゴリー: cs.AI, cs.CL | Justice or Prejudice? Quantifying Biases in LLM-as-a-Judge はコメントを受け付けていません

EIA: Environmental Injection Attack on Generalist Web Agents for Privacy Leakage

要約 ジェネラリスト型ウェブエージェントは、実際のウェブサイト上で様々なタスクを … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CR, cs.LG | EIA: Environmental Injection Attack on Generalist Web Agents for Privacy Leakage はコメントを受け付けていません

Immunization against harmful fine-tuning attacks

要約 大規模言語モデル(LLM)は多くの場合、有害なテキスト生成を防ぐことを目的 … 続きを読む

カテゴリー: cs.CL | Immunization against harmful fine-tuning attacks はコメントを受け付けていません

Hate Personified: Investigating the role of LLMs in content moderation

要約 ヘイト検出のような主観的なタスクでは、人によってヘイトの捉え方が異なるため … 続きを読む

カテゴリー: cs.CL, cs.CY | Hate Personified: Investigating the role of LLMs in content moderation はコメントを受け付けていません