要約
人工知能は、人工ニューラルネットワーク(ANN)の設計とトレーニングの革新のおかげで、近年大幅に進歩しています。
これらの進歩にもかかわらず、私たちは、アンの基本的な形態がどのように学習し、学習することができず、欺く意図をせずに誤った情報を生成する方法について、「コンパブレーション」として知られる現象について、まだほとんど理解していません。
基本的な洞察を提供するために、このペーパーでは、貯水池コンピューター(RCS)でどのように混乱が起こるかを分析します。ANNの形の動的システム。
RCは、明確に定義された方法で確認されることが知られているため、研究するのに特に役立ちます。RCが特定のアトラクタのダイナミクスを再構築するように訓練されている場合、構築するように訓練されていないアトラクタを構築することがあります。
このペーパーでは、再構成が失敗したときにUASが果たす役割と、再構築されたアトラクタ間の遷移をモデル化するときの影響に光を当てています。
私たちの結果に基づいて、UASは状態空間が境界を掲載している学習システムの本質的な特徴であり、この混乱の手段はRCを超えたシステムに存在する可能性があると結論付けています。
要約(オリジナル)
Artificial Intelligence has advanced significantly in recent years thanks to innovations in the design and training of artificial neural networks (ANNs). Despite these advancements, we still understand relatively little about how elementary forms of ANNs learn, fail to learn, and generate false information without the intent to deceive, a phenomenon known as `confabulation’. To provide some foundational insight, in this paper we analyse how confabulation occurs in reservoir computers (RCs): a dynamical system in the form of an ANN. RCs are particularly useful to study as they are known to confabulate in a well-defined way: when RCs are trained to reconstruct the dynamics of a given attractor, they sometimes construct an attractor that they were not trained to construct, a so-called `untrained attractor’ (UA). This paper sheds light on the role played by UAs when reconstruction fails and their influence when modelling transitions between reconstructed attractors. Based on our results, we conclude that UAs are an intrinsic feature of learning systems whose state spaces are bounded, and that this means of confabulation may be present in systems beyond RCs.
arxiv情報
著者 | Jack O’Hagan,Andrew Keane,Andrew Flynn |
発行日 | 2025-06-02 09:06:28+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google