要約
幻覚は、大規模な言語モデル(LLMS)にとって大きな課題であり、一部の分野でのさらなる適用を妨げます。
人類の懐疑的な思考は、LLMが自己認知、自己反省、および幻覚を軽減するために役立つ可能性があります。
この考慮事項に触発されて、LLMSのセマンティック理解能力と自己懐疑論を組み合わせたLamssと呼ばれる新しいアプローチを提案します。
一連の懐疑的なトークンを導入し、それらを語彙に拡張することにより、関連性と微調整の両方を実施します。これにより、LLMはそれぞれの通常のトークンを解読し、その後に懐疑的なトークンが続き、異なる懐疑論レベルを表します。
クエリを与えられた応答の懐疑論を計算することにより、しきい値よりも比較的低い懐疑論的レベルでのみ答えようとする新しい自己認識LLMを定義できます。
精度、AUC、APを喜んで回答するAPを調べることにより、LAMSは、マルチ選択の質問とオープンドメインの質問ベンチマークの両方でベースラインよりも優れたパフォーマンスを達成し、マルチタスクおよびドメイン外の設定に一般化できることを実証します。
私たちの研究は、さらなる人工知能に関する自己懐疑論のモデリングにいくつかの光を当てています。
プロジェクトコードとモデルのチェックポイントは、https://anonymous.4open.science/r/SM-1E76にあります。
要約(オリジナル)
Hallucination is a major challenge for large language models (LLMs), preventing their further application in some fields. The skeptical thinking of humankind could be useful for LLMs to self-cognition, self-reflection and alleviate their hallucinations. Inspired by this consideration, we propose a novel approach called LaMsS, which combines the semantic understanding capability of LLMs with self-skepticism. By introducing a series of skepticism tokens and augmenting them into the vocabulary, we conduct both pertaining and finetuning, which allow the LLM to decode each normal token followed by a skeptical token, representing different skepticism levels. By calculating the response skepticism given a query, one can define a new self-aware LLM which is only willing to answer with relative lower skepticism level than the threshold. By examining the accuracy, AUC and AP of willingly answering questions, we demonstrate that LaMsS achieves better performance than baselines on both multi-choice questions and open-domain question-answering benchmarks, and can generalize to multi-task and out-of-domain settings. Our study sheds some lights on the self-skepticism modeling on further artificial intelligence. Project code and model checkpoints can be found in https://anonymous.4open.science/r/SM-1E76.
arxiv情報
著者 | Yetao Wu,Yihong Wang,Teng Chen,Ningyuan Xi,Qingqing Gu,Hongyang Lei,Luo Ji |
発行日 | 2025-04-24 03:29:59+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google