要約
過去 10 年間にわたる深層学習の爆発的な発展に根ざしたこの論文は、AlphaGo から ChatGPT にまで及び、人工科学者のビジョン、つまり独自の研究を自律的に生成し、発展に貢献する能力を備えたマシンを実現するために必要な基本概念を実証的に検証しています。
人間の知識の。
捜査は、オセロの知識をゼロから発見するものの、それを伝えることができない AlphaGo Zero のようなエージェントである {\sc Olivaw} から始まります。
この認識は、科学者が新しい現象を同僚に説明しようとするときに直面する問題を形式化した説明学習 (EL) フレームワークの開発につながりました。
効果的な EL 処方により、科学的研究をシミュレートするボード ゲームである Zendo を解読することができます。
この成功には基本的な洞察が伴います。人工科学者は、その発見を説明するために使用される言語の独自の解釈を開発する必要があります。
この視点は、現代のマルチモーダル モデルをインタープリタとして見ること、そして、解釈可能でコスト効率の高い CLIP のようなモデルを構築する新しい方法を考案することにつながります。つまり、少量のマルチモーダル データを使用し、追加のトレーニングを行わずに 2 つのユニモーダル モデルを結合することです。
最後に、人工科学者になるために ChatGPT とその兄弟がまだ欠けているものについて議論し、LLM がランダムな偶然以上のものではなく、人間によって完全に解決されると見なす説明の解釈に関するベンチマークである Odeen を紹介します。
要約(オリジナル)
Rooted in the explosion of deep learning over the past decade, this thesis spans from AlphaGo to ChatGPT to empirically examine the fundamental concepts needed to realize the vision of an artificial scientist: a machine with the capacity to autonomously generate original research and contribute to the expansion of human knowledge. The investigation begins with {\sc Olivaw}, an AlphaGo Zero-like agent that discovers Othello knowledge from scratch but is unable to communicate it. This realization leads to the development of the Explanatory Learning (EL) framework, a formalization of the problem faced by a scientist when trying to explain a new phenomenon to their peers. The effective EL prescriptions allow us to crack Zendo, a board game simulating the scientific endeavor. This success comes with a fundamental insight: an artificial scientist must develop its own interpretation of the language used to explain its findings. This perspective then leads us to see modern multimodal models as interpreters, and to devise a new way to build interpretable and cost-effective CLIP-like models: by coupling two unimodal models using little multimodal data and no further training. Finally, we discuss what ChatGPT and its siblings are still missing to become artificial scientists, and introduce Odeen, a benchmark about interpreting explanations that sees LLMs going no further than random chance while being instead fully solved by humans.
arxiv情報
著者 | Antonio Norelli |
発行日 | 2024-11-18 15:51:45+00:00 |
arxivサイト | arxiv_id(pdf) |
提供元, 利用サービス
arxiv.jp, Google