要約
大規模な言語モデル(LLM)は、通常、建築、行動、またはトレーニングデータレンズを通じて分析されます。
この記事では、理論的および体験的な再編成:LLMSは、集合的な人間の知識(CK)の動的なインスタンス化としてのLLMを提供します。
NeuroscienceとAIの概念を利用し、ChatGPT-4との持続的な相互作用に基づいて、私は緊急の対話パターン、微調整の意味、および共等分の概念:人間と機械の認知の相互強化を調べます。
この視点は、現代のAIシステムの相互作用、表現、および代理店を理解するための新しいレンズを提供します。
要約(オリジナル)
Large Language Models (LLMs) are typically analysed through architectural, behavioural, or training-data lenses. This article offers a theoretical and experiential re-framing: LLMs as dynamic instantiations of Collective human Knowledge (CK), where intelligence is evoked through dialogue rather than stored statically. Drawing on concepts from neuroscience and AI, and grounded in sustained interaction with ChatGPT-4, I examine emergent dialogue patterns, the implications of fine-tuning, and the notion of co-augmentation: mutual enhancement between human and machine cognition. This perspective offers a new lens for understanding interaction, representation, and agency in contemporary AI systems.
arxiv情報
著者 | Eleni Vasilaki |
発行日 | 2025-05-30 16:31:58+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google