AdaCAD: Adaptively Decoding to Balance Conflicts between Contextual and Parametric Knowledge

要約

知識の競合は、大規模言語モデル (LLM) のコンテキスト内の情報とそのパラメーターに格納されている知識の間の矛盾から発生します。
これにより、コンテキストを無視する傾向がある標準的なデコード手法を使用する場合、パフォーマンスが低下する可能性があります。
既存のテスト時対比手法は、LLM の出力分布をコンテキストありとコンテキストなしで比較し、それらの間のコントラストに従ってモデルを調整することで、この問題に対処しようとしています。
ただし、これらのメソッドは競合の程度を誤って判断することが多く、競合が存在しない場合は静的メソッドが過剰に調整されるため、競合の量が異なるインスタンスの処理に苦労することがわかりました。
我々は、AdaCAD と呼ばれるきめの細かいインスタンスレベルのアプローチを提案します。これは、コンテキスト知識とパラメトリック知識を表す分布間の Jensen-Shannon の発散によって測定される、競合の程度に基づいて調整の重みを動的に推論します。
6 つの多様な質問応答 (QA) データセットと 3 つの要約タスクに関する 4 つのモデルにわたる実験では、トレーニング不要の適応手法が QA に関して他のデコード手法を常に上回り、静的対比ベースラインと比較して平均精度が 14.21% (絶対) 向上することが実証されました。
、要約の事実性が 5.59 (AlignScore) 向上します。
さらに、私たちの分析では、競合がない場合、対照的なベースラインでデコードするとパフォーマンスが低下する一方、AdaCAD はこれらの損失を軽減し、一部のサンプルに競合があり、他のサンプルには競合がない現実世界のデータセットに適用しやすくなることを示しています。

要約(オリジナル)

Knowledge conflict arises from discrepancies between information in the context of a large language model (LLM) and the knowledge stored in its parameters. This can hurt performance when using standard decoding techniques, which tend to ignore the context. Existing test-time contrastive methods seek to address this by comparing the LLM’s output distribution with and without the context and adjust the model according to the contrast between them. However, we find that these methods frequently misjudge the degree of conflict and struggle to handle instances that vary in their amount of conflict, with static methods over-adjusting when conflict is absent. We propose a fine-grained, instance-level approach called AdaCAD, which dynamically infers the weight of adjustment based on the degree of conflict, as measured by the Jensen-Shannon divergence between distributions representing contextual and parametric knowledge. Our experiments across four models on six diverse question-answering (QA) datasets and three summarization tasks demonstrate that our training-free adaptive method consistently outperforms other decoding methods on QA, with average accuracy gains of 14.21% (absolute) over a static contrastive baseline, and improves the factuality of summaries by 5.59 (AlignScore). Furthermore, our analysis shows that while decoding with contrastive baselines hurts performance when conflict is absent, AdaCAD mitigates these losses, making it more applicable to real-world datasets in which some examples have conflict and others do not.

arxiv情報

著者 Han Wang,Archiki Prasad,Elias Stengel-Eskin,Mohit Bansal
発行日 2024-09-11 16:35:18+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク