SLANG: New Concept Comprehension of Large Language Models

要約

言語の動的な性質は、特にインターネット上のスラングやミームの領域で顕著であり、大規模言語モデル (LLM) の適応性に深刻な課題をもたらしています。
従来、静的なデータセットに固定されていたこれらのモデルは、オンライン コミュニティの特徴である急速な言語進化に追いつくのに苦労することがよくあります。
この研究は、継続的な再トレーニングという高額なコストをかけずに、インターネット上で進化する新しい概念に対する LLM の理解を強化することを目的として、このギャップを埋める重要なニーズに取り組んでいます。
この問題に対処するために、我々は新しいベンチマーク $\textbf{SLANG}$ を提案します。これは、新しいデータを自律的に統合してデータセットを最新の状態に保ち、新しい概念とアプローチ $\textbf{FOCUS を理解する際の LLM の能力を評価できます。
}$ は、因果推論を使用して LLM を強化し、新しいフレーズとその口語的なコンテキストを理解できるようにします。
このベンチマークとアプローチには、言語変化の現実世界の事例を消化し、文脈上のビーコンとして機能し、新たに出現した表現とその意図する意味との間のより正確で文脈に関連したつながりを形成することが含まれます。
実証分析の結果、インターネット スラングやミームの解釈における精度と関連性の点で、因果推論に基づくアプローチが従来のモデルよりも優れていることがわかりました。

要約(オリジナル)

The dynamic nature of language, particularly evident in the realm of slang and memes on the Internet, poses serious challenges to the adaptability of large language models (LLMs). Traditionally anchored to static datasets, these models often struggle to keep up with the rapid linguistic evolution characteristic of online communities. This research addresses the critical need to bridge this gap, aiming to enhance LLMs’ comprehension of the evolving new concepts on the internet, without the high cost of continual retraining. To address this issue, we propose a new benchmark $\textbf{SLANG}$, which can autonomously integrates novel data to stay dataset up-to-date, to assess LLMs’ capability in comprehending emerging concepts and an approach $\textbf{FOCUS}$, which uses causal inference to enhance LLMs to understand new phrases and their colloquial context. This benchmark and approach involves digesting real-world instances of linguistic shifts, serving as contextual beacons, to form more precise and contextually relevant connections between newly emerging expressions and their intended meanings. The empirical analysis shows that our causal inference-based approach outperforms the traditional models in terms of precision and relevance in the interpretation of internet slang and memes.

arxiv情報

著者 Lingrui Mei,Shenghua Liu,Yiwei Wang,Baolong Bi,Xueqi Chen
発行日 2024-01-30 16:37:52+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.CL パーマリンク