要約
この論文では、自己認識を備えた汎用人工知能を構築するための新しいアプローチを提案します。これには次のものが含まれます。(1) 注意メカニズムを実装する新しい方法。
(2) 機械に自己要求を与える方法。
(3)ネットワークに対応した価値評価システムをどのように構築するか。
(4) 世界モデルを作成する方法。
(5) トップダウンの階層的思考の意思決定チェーンをどのように実現するか。
(6) 一般的な意思決定と対応能力を達成する方法。
(7) 機械が言語を通じて人間の経験を直接得る方法。
この論文では、まず現在の LLM (Large Language Model) の欠点のいくつかを分析し、改善のためのアイデアを提案します。
次に、なぜ私たちのスキームが上記の問題を解決できるのかを分析し、私たちのスキームを実装するための詳細な手順を提供します。
第 4 章では、段階的な実装ロードマップを示しました。
そして第 5 章では、具体的な実装デモを紹介しました。
第 6 章では、私たちのスキームの長所と短所を分析し、さらなる研究の方向性を提案します。
この記事では、本物の汎用人工知能を段階的に作成する方法を提案しました。
あらゆるモダリティのデータを統一的に扱うことができ、人間がすでに持っている経験を言語を通じて直接理解できるため、あらゆる意思決定プロセスに強化学習が必要になるという問題を回避できます。
要約(オリジナル)
In this paper, we propose a new approach to building a artificial general intelligence with self awareness, which includes: (1) a new method to implement attention mechanisms; (2) a way to give machines self-demands; (3) how to form a value evaluation system compatible with the network; (4) a way to create the world models; (5) how to realize a top-down, hierarchical thinking decision-making chain; (6) a way to achieve general decision-making and response capabilities; (7) a way for a machine to directly obtain human experience through language. In the paper, we first analyze some of the shortcomings of current LLMs (Large Language Model) and propose ideas for improvement. Then we analyze why our scheme can solve the above problems and provide detailed steps for implementing our scheme. In chapter 4, we have presented a step-by-step mplementation roadmap. And in chapter 5, we have presented a specific implementation demonstration. In chapter 6, we analyze the advantages and disadvantages of our scheme and propose further research directions. In this article, we have put forward how to create genuine artificial general intelligence step by step. It can handle data of all modalities in a unified form and can directly understand the experience that humans already possess through language, thus avoiding the problem that reinforcement learning is required for every decision-making process.
arxiv情報
著者 | Yongcong Chen,Ting Zeng,Xingyue Chen |
発行日 | 2025-01-06 14:31:39+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google