Understanding the Effects of Iterative Prompting on Truthfulness

要約

大規模言語モデル (LLM) の開発により、多くの分野が著しく変化し、優れたテキスト生成機能が提供されました。
しかし、これらのモデルの信頼性と真実性については、依然として差し迫った懸念が残っています。
この目的を達成するために、我々は、LLM 応答を改善するために仮説が立てられた戦略である反復プロンプティングを調査し、十分に調査されていない領域である LLM の真実性への影響を評価します。
私たちの広範な実験では、反復プロンプトのバリアントの複雑さを掘り下げ、モデル応答の精度と校正に対するそれらの影響を調査しました。
私たちの調査結果は、単純なプロンプト方法が真実性を著しく損ない、キャリブレーションエラーの悪化につながることを明らかにしました。
これらの課題に対応して、特定された問題に対処するために設計されたいくつかのプロンプト バリアントを導入します。
これらの変異体は、既存のベースラインに比べて顕著な改善を示しており、将来の研究の有望な方向性を示しています。
私たちの研究は、反復プロンプトの微妙な理解を提供し、LLM の真実性を強化するための新しいアプローチを導入し、それによってより正確で信頼できる AI システムの開発に貢献します。

要約(オリジナル)

The development of Large Language Models (LLMs) has notably transformed numerous sectors, offering impressive text generation capabilities. Yet, the reliability and truthfulness of these models remain pressing concerns. To this end, we investigate iterative prompting, a strategy hypothesized to refine LLM responses, assessing its impact on LLM truthfulness, an area which has not been thoroughly explored. Our extensive experiments delve into the intricacies of iterative prompting variants, examining their influence on the accuracy and calibration of model responses. Our findings reveal that naive prompting methods significantly undermine truthfulness, leading to exacerbated calibration errors. In response to these challenges, we introduce several prompting variants designed to address the identified issues. These variants demonstrate marked improvements over existing baselines, signaling a promising direction for future research. Our work provides a nuanced understanding of iterative prompting and introduces novel approaches to enhance the truthfulness of LLMs, thereby contributing to the development of more accurate and trustworthy AI systems.

arxiv情報

著者 Satyapriya Krishna,Chirag Agarwal,Himabindu Lakkaraju
発行日 2024-02-09 18:57:08+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク