Learn When (not) to Trust Language Models: A Privacy-Centric Adaptive Model-Aware Approach

要約

検索によって補強された大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて顕著な能力を発揮してきた。その大きな成功にもかかわらず、検索プロセスによって提供される知識は、常にモデル予測の改善に役立つとは限らない。サンプルによっては、LLMはすでにかなり知識が豊富であり、検索なしで質問に正しく答えることができるからである。LLMの事前学習データを分析することで、検索にかかるコストを削減することを目的として、過去の研究では、データを意識した方法で検索を行う/スキップするタイミングを決定することが提案されている。しかし、このようなデータ認識手法は、特に機密性の高い、あるいは広範な事前学習データへのアクセスを必要とする場合、プライバシーリスクとメモリ制限をもたらす。さらに、これらの方法は、微調整や継続的な学習設定において適応性に限界がある。我々は、トークン埋め込みがモデル固有の知識を捉えることができ、事前学習データへのアクセスに関連するプライバシーリスクなしに、検索の必要性を判断する、より安全で簡単な方法を提供するという仮説を立てる。さらに、モデルの事前学習時に利用された全てのデータを保持する必要性を軽減し、トークン埋め込みデータのみを維持する必要がある。広範な実験と詳細な分析により、我々のモデル認識アプローチの優位性が実証された。

要約(オリジナル)

Retrieval-augmented large language models (LLMs) have been remarkably competent in various NLP tasks. Despite their great success, the knowledge provided by the retrieval process is not always useful for improving the model prediction, since in some samples LLMs may already be quite knowledgeable and thus be able to answer the question correctly without retrieval. Aiming to save the cost of retrieval, previous work has proposed to determine when to do/skip the retrieval in a data-aware manner by analyzing the LLMs’ pretraining data. However, these data-aware methods pose privacy risks and memory limitations, especially when requiring access to sensitive or extensive pretraining data. Moreover, these methods offer limited adaptability under fine-tuning or continual learning settings. We hypothesize that token embeddings are able to capture the model’s intrinsic knowledge, which offers a safer and more straightforward way to judge the need for retrieval without the privacy risks associated with accessing pre-training data. Moreover, it alleviates the need to retain all the data utilized during model pre-training, necessitating only the upkeep of the token embeddings. Extensive experiments and in-depth analyses demonstrate the superiority of our model-aware approach.

arxiv情報

著者 Chengkai Huang,Rui Wang,Kaige Xie,Tong Yu,Lina Yao
発行日 2024-04-04 15:21:22+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, DeepL

カテゴリー: cs.AI, cs.CL パーマリンク