Unnatural Error Correction: GPT-4 Can Almost Perfectly Handle Unnatural Scrambled Text

要約

大規模言語モデル (LLM) は多くのタスクで顕著なパフォーマンスを達成していますが、その内部動作については不明な点が多くあります。
この研究では、広範な文字レベルの置換を受けたときのLLM、特にGPT-4の回復力についての新しい実験的洞察を提示します。
これを調査するために、まず、スクランブル ベンチを提案します。これは、スクランブルされた文の復元と、スクランブルされたコンテキストでの質問への回答の両方の観点から、スクランブルされた入力を処理する LLM の能力を測定するように設計されたスイートです。
実験結果は、ほとんどの強力な LLM が、タイポ血糖に似た能力を示していることを示しています。これは、単語内の文字がスクランブルされていても、最初と最後の文字が所定の位置に残っている限り、人間は単語の意味を理解できる現象です。
さらに驚くべきことに、極端な条件下であっても不自然なエラーを伴う入力をほぼ完璧に処理できるのは GPT-4 だけであることがわかりました。これは他の LLM にとって、さらには人間にとっても重大な課題となるタスクです。
具体的には、GPT-4 は、各単語内のすべての文字が完全にスクランブル化されている場合でも、スクランブル化された文から元の文をほぼ完全に再構築し、編集距離を 95% 短縮できます。
スクランブルされたテキストによって入力トークン化が大幅に中断されたにもかかわらず、LLM がこのような回復力を示すことができるというのは直観に反しています。

要約(オリジナル)

While Large Language Models (LLMs) have achieved remarkable performance in many tasks, much about their inner workings remains unclear. In this study, we present novel experimental insights into the resilience of LLMs, particularly GPT-4, when subjected to extensive character-level permutations. To investigate this, we first propose the Scrambled Bench, a suite designed to measure the capacity of LLMs to handle scrambled input, in terms of both recovering scrambled sentences and answering questions given scrambled context. The experimental results indicate that most powerful LLMs demonstrate the capability akin to typoglycemia, a phenomenon where humans can understand the meaning of words even when the letters within those words are scrambled, as long as the first and last letters remain in place. More surprisingly, we found that only GPT-4 nearly flawlessly processes inputs with unnatural errors, even under the extreme condition, a task that poses significant challenges for other LLMs and often even for humans. Specifically, GPT-4 can almost perfectly reconstruct the original sentences from scrambled ones, decreasing the edit distance by 95%, even when all letters within each word are entirely scrambled. It is counter-intuitive that LLMs can exhibit such resilience despite severe disruption to input tokenization caused by scrambled text.

arxiv情報

著者 Qi Cao,Takeshi Kojima,Yutaka Matsuo,Yusuke Iwasawa
発行日 2023-11-30 18:51:38+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク