Large Language Models and Cognitive Science: A Comprehensive Review of Similarities, Differences, and Challenges

要約

この包括的なレビューでは、大規模言語モデル (LLM) と認知科学の接点を調査し、LLM と人間の認知プロセスの類似点と相違点を検証します。
私たちはLLMの認知能力を評価する方法を分析し、認知モデルとしての可能性について議論します。
このレビューでは、さまざまな認知分野における LLM の応用を取り上げ、認知科学研究で得られた洞察に焦点を当てています。
私たちは、LLM の認知バイアスと限界を評価し、そのパフォーマンスを向上させるために提案された方法を評価します。
LLM とコグニティブ アーキテクチャとの統合が調査され、人工知能 (AI) 機能を強化するための有望な手段が明らかになります。
主要な課題と将来の研究の方向性が特定され、人間の認知とよりよく一致するように LLM を継続的に改良する必要性が強調されます。
このレビューは、人工知能と人間の知能の両方についての理解を進める上で、LLM の現状と将来の可能性についてバランスのとれた視点を提供します。

要約(オリジナル)

This comprehensive review explores the intersection of Large Language Models (LLMs) and cognitive science, examining similarities and differences between LLMs and human cognitive processes. We analyze methods for evaluating LLMs cognitive abilities and discuss their potential as cognitive models. The review covers applications of LLMs in various cognitive fields, highlighting insights gained for cognitive science research. We assess cognitive biases and limitations of LLMs, along with proposed methods for improving their performance. The integration of LLMs with cognitive architectures is examined, revealing promising avenues for enhancing artificial intelligence (AI) capabilities. Key challenges and future research directions are identified, emphasizing the need for continued refinement of LLMs to better align with human cognition. This review provides a balanced perspective on the current state and future potential of LLMs in advancing our understanding of both artificial and human intelligence.

arxiv情報

著者 Qian Niu,Junyu Liu,Ziqian Bi,Pohsun Feng,Benji Peng,Keyu Chen,Ming Li
発行日 2024-09-12 14:56:35+00:00
arxivサイト arxiv_id(pdf)

提供元, 利用サービス

arxiv.jp, Google

カテゴリー: cs.AI, cs.CL パーマリンク