Why Do We Need Neuro-symbolic AI to Model Pragmatic Analogies?

要約

インテリジェンスの特徴は、使い慣れた領域を使用して、あまり馴染みのない領域について推論する能力です。これは類推推論として知られています。
この記事では、非構造化テキストで表現される徐々に複雑になる類推を処理する際の、大規模言語モデル (LLM) のパフォーマンスについて詳しく説明します。
語彙的類推、構文的類推、意味的類推、語用論的類推という 4 つの異なる複雑さのレベルで類推について説明します。
アナロジーがより複雑になるにつれて、テキストの内容を超えた広範で多様な知識が必要になりますが、LLM を強化する語彙共起統計では見つけることができそうにありません。
これに対処するために、統計的 AI と記号的 AI を組み合わせ、非構造化テキストの表現に情報を与えて関連するコンテンツを強調表示および拡張し、抽象化を提供し、マッピング プロセスをガイドする神経記号的 AI 技術を採用する必要性について議論します。
私たちの知識に基づいたアプローチは、LLM の効率を維持しながら、教育応用のための類似性を説明する能力を維持します。

要約(オリジナル)

A hallmark of intelligence is the ability to use a familiar domain to make inferences about a less familiar domain, known as analogical reasoning. In this article, we delve into the performance of Large Language Models (LLMs) in dealing with progressively complex analogies expressed in unstructured text. We discuss analogies at four distinct levels of complexity: lexical analogies, syntactic analogies, semantic analogies, and pragmatic analogies. As the analogies become more complex, they require increasingly extensive, diverse knowledge beyond the textual content, unlikely to be found in the lexical co-occurrence statistics that power LLMs. To address this, we discuss the necessity of employing Neuro-symbolic AI techniques that combine statistical and symbolic AI, informing the representation of unstructured text to highlight and augment relevant content, provide abstraction and guide the mapping process. Our knowledge-informed approach maintains the efficiency of LLMs while preserving the ability to explain analogies for pedagogical applications.

arxiv情報

著者 Thilini Wijesiriwardene,Amit Sheth,Valerie L. Shalin,Amitava Das
発行日 2023-09-12 16:33:15+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク