Position Engineering: Boosting Large Language Models through Positional Information Manipulation

要約

大規模言語モデル (LLM) のパフォーマンスは、提供されるプロンプトの品質に大きく影響されます。
これに応えて、研究者たちは、プロンプトテキストを変更してタスクのパフォーマンスを向上させることを目的とした、大規模なプロンプトエンジニアリング戦略を開発しました。
この論文では、大規模な言語モデルをガイドするためのより効率的な方法を提供する、位置エンジニアリングと呼ばれる新しい技術を紹介します。
LLM に提供されるテキストを変更するのに多大な労力を必要とするプロンプト エンジニアリングとは異なり、位置エンジニアリングでは、テキスト自体を変更せずに、プロンプト内の位置情報を変更するだけです。
私たちは、広く使用されている 2 つの LLM シナリオ、検索拡張生成 (RAG) とインコンテキスト学習 (ICL) で位置エンジニアリングを評価しました。
私たちの調査結果は、どちらの場合も位置エンジニアリングによってベースラインが大幅に改善されることを示しています。
したがって、位置エンジニアリングは、大規模な言語モデルの機能を活用するための有望な新しい戦略となります。

要約(オリジナル)

The performance of large language models (LLMs) is significantly influenced by the quality of the prompts provided. In response, researchers have developed enormous prompt engineering strategies aimed at modifying the prompt text to enhance task performance. In this paper, we introduce a novel technique termed position engineering, which offers a more efficient way to guide large language models. Unlike prompt engineering, which requires substantial effort to modify the text provided to LLMs, position engineering merely involves altering the positional information in the prompt without modifying the text itself. We have evaluated position engineering in two widely-used LLM scenarios: retrieval-augmented generation (RAG) and in-context learning (ICL). Our findings show that position engineering substantially improves upon the baseline in both cases. Position engineering thus represents a promising new strategy for exploiting the capabilities of large language models.

arxiv情報

著者 Zhiyuan He,Huiqiang Jiang,Zilong Wang,Yuqing Yang,Luna Qiu,Lili Qiu
発行日 2024-04-17 10:00:56+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL, cs.LG パーマリンク