cs.CL」カテゴリーアーカイブ

STAR: SocioTechnical Approach to Red Teaming Language Models

要約 この研究では、大規模な言語モデルのレッド チームの安全性に関する現在のベス … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.CY, cs.HC | STAR: SocioTechnical Approach to Red Teaming Language Models はコメントを受け付けていません

GAMA: A Large Audio-Language Model with Advanced Audio Understanding and Complex Reasoning Abilities

要約 非音声音と非言語音声を知覚して理解することは、周囲と対話するのに役立つ意思 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.SD, eess.AS | GAMA: A Large Audio-Language Model with Advanced Audio Understanding and Complex Reasoning Abilities はコメントを受け付けていません

Split, Unlearn, Merge: Leveraging Data Attributes for More Effective Unlearning in LLMs

要約 大規模言語モデル (LLM) は、有害な言語を生成したり、危険な知識の悪意 … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Split, Unlearn, Merge: Leveraging Data Attributes for More Effective Unlearning in LLMs はコメントを受け付けていません

MDCR: A Dataset for Multi-Document Conditional Reasoning

要約 現実生活で同じ質問がさまざまな個人に投げかけられても、その人固有の状況に応 … 続きを読む

カテゴリー: cs.AI, cs.CL | MDCR: A Dataset for Multi-Document Conditional Reasoning はコメントを受け付けていません

CELL your Model: Contrastive Explanation Methods for Large Language Models

要約 ブラックボックスディープニューラルネットワーク分類モデルの出現により、その … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | CELL your Model: Contrastive Explanation Methods for Large Language Models はコメントを受け付けていません

InSaAF: Incorporating Safety through Accuracy and Fairness | Are LLMs ready for the Indian Legal Domain?

要約 言語技術と人工知能の最近の進歩により、判決の予測から要約の生成に至るまで、 … 続きを読む

カテゴリー: cs.AI, cs.CL | InSaAF: Incorporating Safety through Accuracy and Fairness | Are LLMs ready for the Indian Legal Domain? はコメントを受け付けていません

RepLiQA: A Question-Answering Dataset for Benchmarking LLMs on Unseen Reference Content

要約 大規模言語モデル (LLM) は膨大な量のデータでトレーニングされ、そのほ … 続きを読む

カテゴリー: cs.AI, cs.CL | RepLiQA: A Question-Answering Dataset for Benchmarking LLMs on Unseen Reference Content はコメントを受け付けていません

Iterative Length-Regularized Direct Preference Optimization: A Case Study on Improving 7B Language Models to GPT-4 Level

要約 言語モデルを人間の好みに合わせるための標準的な方法である直接好み最適化 ( … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | Iterative Length-Regularized Direct Preference Optimization: A Case Study on Improving 7B Language Models to GPT-4 Level はコメントを受け付けていません

WPO: Enhancing RLHF with Weighted Preference Optimization

要約 ヒューマン フィードバックからの強化学習 (RLHF) は、大規模言語モデ … 続きを読む

カテゴリー: cs.AI, cs.CL, cs.LG | WPO: Enhancing RLHF with Weighted Preference Optimization はコメントを受け付けていません

Language Modeling with Editable External Knowledge

要約 世界が変われば、それについて人間が書く文章も変わります。 これらの変更を反 … 続きを読む

カテゴリー: cs.AI, cs.CL | Language Modeling with Editable External Knowledge はコメントを受け付けていません