要約
大規模な言語モデル(LLM)は、言語固有の文化的知識と一般的な知識の両方を習得するために、広範な多言語コーパスで先立っています。
理想的には、LLMは言語間で文化に依存しない質問に対する一貫した回答を提供する必要がありますが、重大なパフォーマンスの格差が観察されます。
これに対処するために、言語モデル(穏やか)の横断的な自己調節能力を探り、言語間で知識を調整します。
具体的には、特定の質問に対して、異なる言語で複数の応答をサンプリングし、最も自己整合的な応答をターゲットとして選択し、残りの回答を否定的な例として残します。
次に、直接優先最適化(DPO)を使用して、さまざまな言語にわたってモデルの知識を調整します。
MEDQAおよびX-CSQAデータセットの評価は、ゼロショットと検索の両方の設定の両方で、言語間の知識質問応答を強化する際のCalmの有効性を示しています。
また、穏やかなトレーニングに関与する言語の数を増やすと、精度と一貫性がさらに高くなることがわかりました。
言語間の一貫性が知識の調整を強化し、メソッドの一般化可能性を探求する方法の定性的分析を提供します。
このペーパーのソースコードとデータは、GitHubで入手できます。
要約(オリジナル)
Large Language Models (LLMs) are pretrained on extensive multilingual corpora to acquire both language-specific cultural knowledge and general knowledge. Ideally, while LLMs should provide consistent responses to culture-independent questions across languages, we observe significant performance disparities. To address this, we explore the Cross-Lingual Self-Aligning ability of Language Models (CALM) to align knowledge across languages. Specifically, for a given question, we sample multiple responses across different languages, and select the most self-consistent response as the target, leaving the remaining responses as negative examples. We then employ direct preference optimization (DPO) to align the model’s knowledge across different languages. Evaluations on the MEDQA and X-CSQA datasets demonstrate CALM’s effectiveness in enhancing cross-lingual knowledge question answering, both in zero-shot and retrieval augmented settings. We also found that increasing the number of languages involved in CALM training leads to even higher accuracy and consistency. We offer a qualitative analysis of how cross-lingual consistency can enhance knowledge alignment and explore the method’s generalizability. The source code and data of this paper are available on GitHub.
arxiv情報
著者 | Yumeng Wang,Zhiyuan Fan,Qingyun Wang,May Fung,Heng Ji |
発行日 | 2025-01-30 16:15:38+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google