要約
この論文では、「ハッシュ」と呼ばれる新しい方法を紹介します。この方法では、大規模言語モデル (LLM) 内の潜在的にバイアスを誘発する単語をハッシュのような無意味な識別子でマスクして、認知バイアスと外部知識への依存を軽減します。
このメソッドは、合計 490 のプロンプトを含む 3 セットの実験にわたってテストされました。
カイ二乗検定を使用した統計分析では、LLama、ChatGPT、Copilot、Gemini、Mixtral モデルを対象としたすべてのテスト済みシナリオで大幅な改善が見られました。
最初の実験では、認知バイアスに対する感受性を評価することを目的とした「リンダ」問題の修正版における誤謬率がハッシュ化によって減少しました。
2 番目の実験では、頻繁に使用されるアイテムセット抽出タスクでの LLM の結果が改善されました。
3 番目の実験では、リンダ問題がテキストではなく表形式で提示される場合にもハッシュが効果的であることがわかり、この手法がさまざまな入力表現で機能することがわかりました。
全体として、この方法はバイアスの軽減と外部知識の組み込みを改善することが示されました。
バイアスが減少したにもかかわらず、幻覚率は LLM モデルのタイプ間で一貫して減少しませんでした。
これらの発見は、その有効性はモデルとタスクに依存しますが、バイアス誘発項をマスキングすることで LLM のパフォーマンスを向上できることを示唆しています。
要約(オリジナル)
This paper introduces a novel method, referred to as ‘hashing’, which involves masking potentially bias-inducing words in large language models (LLMs) with hash-like meaningless identifiers to reduce cognitive biases and reliance on external knowledge. The method was tested across three sets of experiments involving a total of 490 prompts. Statistical analysis using chi-square tests showed significant improvements in all tested scenarios, which covered LLama, ChatGPT, Copilot, Gemini and Mixtral models. In the first experiment, hashing decreased the fallacy rate in a modified version of the ‘Linda’ problem aimed at evaluating susceptibility to cognitive biases. In the second experiment, it improved LLM results on the frequent itemset extraction task. In the third experiment, we found hashing is also effective when the Linda problem is presented in a tabular format rather than text, indicating that the technique works across various input representations. Overall, the method was shown to improve bias reduction and incorporation of external knowledge. Despite bias reduction, hallucination rates were inconsistently reduced across types of LLM models. These findings suggest that masking bias-inducing terms can improve LLM performance, although its effectiveness is model- and task-dependent.
arxiv情報
著者 | Milena Chadimová,Eduard Jurášek,Tomáš Kliegr |
発行日 | 2024-11-26 10:52:08+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google